DeepSeek R1, một mô hình AI mạnh mẽ đang nổi lên như một hiện tượng trong giới công nghệ gần đây. Mô hình này cung cấp cho người dùng một giải pháp hoàn hảo với tính năng miễn phí và mã nguồn mở. Bài viết này sẽ hướng dẫn bạn cách sử dụng DeepSeek R1 miễn phí trong Visual Studio Code thông qua các extension như Cline hoặc Roo Code, giúp bạn tận dụng tối đa tiềm năng của AI để hỗ trợ lập trình mà không cần phải phụ thuộc vào các dịch vụ đám mây đắt đỏ.

1. Tại sao DeepSeek R1 được nhiều người quan tâm?

  • Miễn phí & mã nguồn mở – Người dùng có thể sử dụng DeepSeek R1 mà không cần trả phí hoặc mua API, tất cả đều là mã nguồn mở và miễn phí.

  • Hiệu suất cao – DeepSeek R1 xử lý rất tốt các tác vụ liên quan đến logic, toán học, lập trình, hỗ trợ đắc lực cho các lập trình viên trong công việc.

  • Đa dạng phiên bản – DeepSeek R1 cung cấp nhiều phiên bản từ 1.5B đến 70B Parameters, cho phép người dùng lựa chọn phù hợp với cấu hình máy tính của mình.

  • Dễ tích hợp – DeepSeek R1 có thể dễ dàng tích hợp vào VSCode thông qua các extension như Cline hoặc Roo Code.

  • Không phụ thuộc vào server bên ngoài – Nếu chạy DeepSeek R1 trên máy cá nhân, người dùng không cần phải trả phí token hay API, đồng thời dữ liệu được xử lý hoàn toàn trên máy tính mà không gửi đi bên ngoài.

2. Những điều bạn cần biết trước khi cài đặt DeepSeek R1

  • Tiết kiệm tài nguyên – Nếu cấu hình máy của bạn không quá mạnh, bạn nên chọn các mô hình nhỏ như 1.5B hoặc 7B Parameters, hoặc các phiên bản đã nén (quantized) để giảm tải cho hệ thống.

  • Kiểm tra dung lượng RAM – Trước khi cài đặt, bạn có thể sử dụng công cụ LLM Calc để tính toán xem máy tính của mình có đủ RAM để chạy DeepSeek R1 hay không.

  • Đảm bảo quyền riêng tư – Khi chạy DeepSeek R1 trên máy cá nhân, tất cả dữ liệu sẽ được lưu trữ và xử lý trên máy tính của bạn, không bị gửi đi đến các máy chủ bên ngoài, đảm bảo tính riêng tư.

  • Không tốn phí khi chạy cục bộ – Nếu chạy DeepSeek R1 trực tiếp trên máy tính, bạn sẽ không cần phải chi trả cho các token hay API. Tuy nhiên, việc sử dụng GPU sẽ giúp mô hình chạy mượt mà hơn, tránh tình trạng chậm khi chỉ sử dụng CPU.

3. Nên chọn phiên bản DeepSeek R1 nào?

Việc chọn phiên bản DeepSeek R1 phù hợp chủ yếu phụ thuộc vào cấu hình máy tính của bạn và các yêu cầu công việc. Dưới đây là các lựa chọn với những đặc điểm khác nhau để bạn có thể dễ dàng quyết định phiên bản nào sẽ phù hợp nhất:

- 1.5B Parameters

  • Yêu cầu RAM: Khoảng 4GB

  • GPU: Card tích hợp (ví dụ GTX 1050) hoặc CPU đời mới

  • Phù hợp với: Máy tính cấu hình thấp, dùng cho các tác vụ đơn giản

- 7B Parameters

  • Yêu cầu RAM: Khoảng 8-10GB

  • GPU: Card rời (ví dụ GTX 1660 trở lên)

  • Phù hợp với: Máy tính cấu hình trung bình, làm việc hiệu quả cho các tác vụ vừa và lập trình

- 70B Parameters

  • Yêu cầu RAM: Khoảng 40GB

  • GPU: Card cao cấp (ví dụ RTX 3090 hoặc cao hơn)

  • Phù hợp với: Máy tính mạnh, chạy các tác vụ phức tạp, đòi hỏi hiệu suất cao

Việc lựa chọn phiên bản DeepSeek R1 phù hợp phụ thuộc vào cấu hình máy tính của bạn và mục đích sử dụng. Nếu bạn sử dụng máy tính cấu hình thấp hoặc chỉ cần xử lý các tác vụ đơn giản, 1.5B Parameters là sự lựa chọn tiết kiệm. Đối với những ai cần hiệu suất trung bình cho công việc lập trình, 7B Parameters là lựa chọn hợp lý. Còn nếu bạn đang làm việc với các tác vụ phức tạp hoặc yêu cầu hiệu suất cao, thì 70B Parameters sẽ là phiên bản phù hợp nhất.

4. Cách chạy DeepSeek R1 trên máy tính

4.1. Dùng LM Studio

- Tải LM Studio: Truy cập trang chủ LM Studio để tải và cài đặt.

- Tải mô hình DeepSeek R1:

  • Vào tab Discover, tìm "DeepSeek R1" và chọn bản phù hợp với hệ thống của bạn.

  • MacBook (chip Apple): Chọn bản MLX để tối ưu tốc độ.

  • Windows/Linux: Chọn bản GGUF.

- Load mô hình: Vào Local Models, chọn DeepSeek R1 và nhấn Load.

- Khởi chạy server: Vào tab Developer, bật Start Server.

- Mô hình sẽ chạy tại http://localhost:1234.

->Tiếp tục với mục 4.4 – tích hợp vào VSCode!

4.2. Dùng Ollama

- Cài đặt Ollama: Tải từ trang Ollama và cài đặt.

- Tải mô hình:

ollama pull deepseek-r1

Nếu muốn mô hình nhỏ hơn, bạn có thể xem thêm tại https://ollama.com/library/deepseek-r1

- Chạy server:

  ollama serve 

- Mô hình sẽ chạy tại http://localhost:11434.

- Tiếp tục với mục 4.4 – tích hợp vào VSCode!

4.3. Dùng Jan

- Cài đặt Jan: Truy cập trang chủ Jan để tải và cài đặt.

- Tải mô hình:

  • DeepSeek R1 chưa có sẵn trong Jan, bạn có thể tìm trên Hugging Face với từ khóa "unsloth gguf deepseek r1".

  • Nhấn "Use this model", chọn Jan làm công cụ sử dụng.

  • Mô hình sẽ tự động tải xuống và mở trong Jan.

- Load mô hình: Sau khi tải, chọn mô hình và nhấn Load.

- Jan sẽ tự động khởi chạy server tại http://localhost:1337.

- Tiếp tục với mục 4.4 – tích hợp vào VSCode!

4.4. Tích hợp vào VSCode

Với LM Studio hoặc Jan

Bước 1: Cài đặt extension Cline hoặc Roo Code trong VSCode.

Bước 2: Vào phần Settings của extension.

Bước 3: Chọn API ProviderLM Studio hoặc Jan.

Bước 4: Nhập địa chỉ máy chủ (địa chỉ server: http://localhost:1234 cho LM Studio hoặc http://localhost:1337 cho Jan).

Bước 5: Chọn DeepSeek R1 và hoàn tất. 

Với Ollama

Bước 1: Cài đặt extension Cline hoặc Roo Code trong VSCode.

Bước 2: Vào phần Settings của extension.

Bước 3: Chọn API ProviderOllama.

Bước 4: Nhập địa chỉ máy chủ (http://localhost:11434).

Bước 5: Chọn DeepSeek R1 và bắt đầu sử dụng.

Lời kết

Hy vọng rằng qua hướng dẫn này, bạn đã có thể dễ dàng triển khai và tận dụng DeepSeek R1 để cải thiện quá trình lập trình của mình.

Nguồn: Douglas Toledo

VietnamWorks inTECH