Warning: session_start(): open(/home/obslnetp/public_html/src/var/sessions/sess_8f9baccb5daa44988d41bfd535bde9f3, O_RDWR) failed: Disk quota exceeded (122) in /home/obslnetp/public_html/src/bootstrap.php on line 59

Warning: session_start(): Failed to read session data: files (path: /home/obslnetp/public_html/src/var/sessions) in /home/obslnetp/public_html/src/bootstrap.php on line 59
Ollama tích hợp MLX và một số thay đổi khiến việc chạy AI local trên Apple Sillicon dễ dàng hơn - Tin Tức Cập Nhật Nhanh

Ollama tích hợp MLX và một số thay đổi khiến việc chạy AI local trên Apple Sillicon dễ dàng hơn

1 week ago 9
Quảng Cáo

0943778078

Ollama vừa có một bước nâng cấp khá thú vị cho những anh em nào thích chạy mô hình AI trực tiếp trên Mac, nhất là mấy máy dùng chip Apple Silicon như M1, M2, M3 trở lên. Thay vì phải phụ thuộc hoàn toàn vào dịch vụ đám mây, giờ anh em có thể “kéo” các mô hình ngôn ngữ lớn về chạy ngay trên máy, mà lại còn nhanh và tiết kiệm RAM hơn nhờ một loạt thay đổi bên dưới.

Điểm quan trọng nhất trong bài là việc Ollama tích hợp hỗ trợ MLX. Đây vốn là framework machine learning mã nguồn mở do chính...

Ollama tích hợp MLX và một số thay đổi khiến việc chạy AI local trên Apple Sillicon dễ dàng hơn
Read Entire Article