제품2026년 4월 1일 AM 08:54
올라마, 맥에서 로컬 AI 모델 실행 속도 높이는 MLX 프레임워크 지원 시작
로컬 대형 언어 모델(LLM) 실행 런타임인 올라마(Ollama)가 애플의 오픈소스 머신러닝 프레임워크 MLX를 지원한다고 발표했다. 이번 업데이트는 올라마 0.19 프리뷰 버전에서 사용할 수 있다.
MLX 지원과 함께 올라마는 캐싱 성능을 개선하고, 엔비디아의 NVFP4 포맷을 통한 모델 압축도 지원하게 되었다. 이를 통해 특정 모델에서 훨씬 효율적인 메모리 사용이 가능해졌다.
이러한 개선 사항들을 종합하면, 애플 실리콘 칩(M1 이상)을 탑재한 맥에서 상당히 향상된 성능을 기대할 수 있다. 현재 MLX 지원 모델은 알리바바의 Qwen3.5 350억 파라미터 모델 하나에 한정되어 있다.
하드웨어 요구 사항도 까다로운 편이다. 올라마에 따르면 애플 실리콘 맥과 최소 32GB RAM이 필요하다.
이번 발표의 시기는 로컬 AI 모델에 대한 관심이 급증하고 있는 시점과 맞물린다. 최근 GitHub에서 30만 개 이상의 스타를 기록한 오픈클로(OpenClaw)의 인기가 주목받고 있으며, 몰트북(Moltbook) 실험과 함께 특히 중국에서 큰 반향을 일으켰다.
또한 개발자들이 클로드 코드(Claude Code)나 ChatGPT 코덱스(Codex) 같은 최상위 도구들의 요금과 사용량 제한에 불만을 갖게 되면서, 로컬 코딩 모델에 대한 실험이 활발해지고 있다.
올라마는 최근 비주얼 스튜디오 코드 통합도 확대한 바 있어, 개발자 생태계에서의 영향력을 더욱 넓히고 있다.