Tilbage til Nyheder
31.3.2026 AI Nyheder 1 minutter

Ollama MLX gør lokale modeller hurtigere på Mac

Ollama MLX gør lokale modeller hurtigere på Mac

Ollama har tilføjet MLX‑understøttelse, der forbedrer brugen af Apples unified memory på Apple Silicon‑Macs. Det giver bedre hukommelsesdeling mellem CPU og GPU, hurtigere inference, lavere latenstid og mulighed for at køre større lokale sprogmodeller mere effektivt uden at sende data til skyen.