:quality(75)/cach_cai_dat_va_su_dung_mo_hinh_gpt_oss_20b_cua_openai_tren_macos_1782773e66.jpg)
Cách cài đặt và sử dụng mô hình gpt-oss-20b của OpenAI trên macOS
Vừa qua, OpenAI chính thức giới thiệu gpt-oss, model mã nguồn mở được cộng đồng công nghệ mong đợi từ lâu.
Điểm đặc biệt của gpt-oss là khả năng chạy hoàn toàn cục bộ ngay trên máy tính cá nhân, bao gồm cả các dòng Mac sử dụng chip Apple Silicon. Điều này giúp người dùng không cần kết nối internet khi làm việc với AI, đồng thời toàn bộ dữ liệu được lưu trữ ngay trên thiết bị, tăng tính bảo mật và quyền riêng tư.
Hai phiên bản với yêu cầu phần cứng khác nhau
Gpt-oss hiện có hai biến thể gồm gpt-oss-20b và gpt-oss-120b. Phiên bản 20b được xem là lựa chọn tầm trung với yêu cầu phần cứng vừa phải, trong khi bản 120b có kích thước lớn hơn và đòi hỏi cấu hình mạnh hơn đáng kể. Trên phần lớn máy Mac dùng Apple Silicon, người dùng chỉ có thể vận hành gpt-oss-20b nếu đáp ứng đủ tài nguyên.
Phiên bản nhỏ cho tốc độ phản hồi nhanh hơn nhưng dễ tạo ra thông tin thiếu chính xác hơn so với bản lớn. Dù vậy, đây vẫn là lựa chọn đáng chú ý cho những ai muốn trải nghiệm AI ngoại tuyến hoàn toàn miễn phí.
Khi vận hành cục bộ, gpt-oss không hỗ trợ tra cứu thông tin trực tuyến và thiếu một số tính năng nâng cao như trên bản ChatGPT Plus. Tốc độ xử lý và khả năng vận hành phụ thuộc trực tiếp vào cấu hình thiết bị. OpenAI khuyến nghị máy Mac nên có tối thiểu 16GB RAM để chạy gpt-oss-20b, tuy nhiên trải nghiệm mượt mà hơn sẽ đạt được trên máy có dung lượng RAM lớn hơn.
Việc Apple loại bỏ tùy chọn 8GB RAM trên nhiều mẫu Mac mới cũng phần nào phản ánh yêu cầu phần cứng ngày càng cao của các ứng dụng AI.
Các bước cài đặt gpt-oss-20b trên Mac
Quy trình cài đặt gpt-oss-20b khá đơn giản. Người dùng cần tải và cài đặt phần mềm Ollama từ trang ollama.com/download, sau đó sử dụng Terminal để nhập lệnh tải model về máy với dung lượng khoảng 15GB.
ollama pull gpt-oss:20b
ollama run gpt-oss:20b

Tiếp theo, người dùng có thể chọn gpt-oss-20b làm model mặc định và kích hoạt chế độ Airplane Mode trong Ollama để đảm bảo toàn bộ quá trình diễn ra hoàn toàn ngoại tuyến. Sau khi hoàn tất, chỉ cần nhập nội dung vào ô chat để model xử lý.
Lưu ý rằng Ollama sẽ sử dụng tối đa tài nguyên của máy, vì vậy hiệu suất có thể bị ảnh hưởng đáng kể trong quá trình hoạt động.
Hiệu năng thực tế khi chạy thử
Trên MacBook Air M4 15 inches với 16GB RAM, thời gian phản hồi cho một yêu cầu đơn giản như “hello” có thể mất hơn 5 phút, trong khi câu hỏi “Who was the 13th president?” mất khoảng 43 phút. Điều này cho thấy việc nâng cấp RAM sẽ mang lại trải nghiệm tốt hơn đáng kể cho người dùng.

Nếu muốn xóa model để lấy lại không gian lưu trữ, người dùng chỉ cần mở Terminal và nhập lệnh dưới đây để gỡ bỏ. Quy trình này diễn ra nhanh chóng và giúp giải phóng toàn bộ dung lượng mà model chiếm dụng trên ổ cứng.
ollama rm gpt-oss:20b
Ngoài Ollama, người dùng Mac có thể thử LM Studio, một ứng dụng tương tự hỗ trợ chạy nhiều model AI khác nhau hoàn toàn cục bộ. Cả hai giải pháp đều phù hợp cho những ai muốn khám phá sức mạnh của AI trên Mac mà không phụ thuộc vào kết nối internet, đồng thời đảm bảo dữ liệu luôn nằm trong tầm kiểm soát của chính mình.
Xem thêm:
- iOS 26 beta thêm hiệu ứng pin yếu mới cực dễ thương
- OpenAI chính thức công bố GPT-5, nâng cấp lớn cho ChatGPT
- GPT OSS là gì? Giải pháp mã nguồn mở cho triển khai AI cục bộ
Nguồn: 9to5Mac
:quality(75)/estore-v2/img/fptshop-logo.png)