Osaurus가 맥 전용 오픈소스 LLM 서버(대규모 언어 모델 서버)를 공개했다. 이 도구는 로컬 AI 모델과 클라우드 모델을 자유롭게 전환하게 하며 사용자의 파일과 도구를 개인 하드웨어에 그대로 유지시킨다.
이번 주 개발자 커뮤니티에서는 터미널 명령어 없이 GUI(그래픽 사용자 인터페이스)만으로 로컬 모델을 갈아끼우는 장면이 화제가 되고 있다. 매일 아침 수십 개의 모델을 테스트하는 개발자들이 더 이상 복잡한 설정 파일과 씨름하지 않고 클릭 몇 번으로 환경을 바꾸는 모습이 포착된다.
로컬과 클라우드를 잇는 11만 건의 선택
Osaurus는 MiniMax M2.5, Gemma 4, Qwen3.6, GPT-OSS, Llama, DeepSeek V4를 비롯해 Apple의 온디바이스 파운데이션 모델(기기 내부에서 작동하는 기본 AI 모델)과 Liquid AI(효율적인 AI 모델 개발사)의 LFM 제품군을 지원한다. 클라우드 연결 대상은 OpenAI, Anthropic, Gemini, Grok, Venice AI(개인정보 보호 중심 AI), OpenRouter(다양한 AI 모델 API 통합 서비스), Ollama(로컬 LLM 실행 도구), LM Studio(로컬 모델 테스트 도구)까지 확장된다.
하드웨어 요구사항은 최소 64GB RAM(컴퓨터 주기억장치)이며, DeepSeek V4 같은 대형 모델을 원활하게 돌리려면 128GB RAM이 권장된다. 기능적으로는 MCP(Model Context Protocol, 모델 간 컨텍스트 공유 규격) 서버로 작동하여 MCP 호환 클라이언트에 도구 접근 권한을 부여할 수 있다. 기본적으로 Mail, Calendar, Vision, macOS Use, XLSX, PPTX, Browser, Music, Git, Filesystem, Search, Fetch 등 20개가 넘는 네이티브 플러그인을 탑재했으며 최근에는 음성 기능까지 업데이트되었다. 프로젝트 공개 후 현재까지 112,000회 이상의 다운로드를 기록했다.
터미널을 넘어 샌드박스로 옮겨온 제어권
예전에는 OpenClaw(AI 모델 연결 도구)나 Hermes(워크플로우 제어 도구) 같은 하네스(Harness, 여러 모델과 도구를 하나로 묶는 제어 계층)를 쓰려면 터미널 환경에 능숙해야 했다. 이러한 도구들은 설정 과정이 까다로울 뿐 아니라 보안 구멍이 생길 위험이 있어 일반 사용자가 접근하기 어려웠다.
Osaurus는 일반 소비자도 즉시 사용할 수 있는 쉬운 인터페이스를 전면에 내세웠다. 특히 하드웨어 격리 가상 샌드박스(Virtual Sandbox, 외부와 분리된 안전한 실행 환경)를 도입해 AI의 활동 범위를 제한함으로써 컴퓨터와 데이터를 안전하게 보호한다. 이는 모델의 지능을 활용하면서도 시스템 전체의 보안을 포기하지 않겠다는 설계 방향이다.
개발자가 바로 체감하는 변화는 데이터 센터에 내 정보를 보내지 않고도 고성능 AI를 쓸 수 있다는 점이다. 테슬라와 넷플릭스 출신 엔지니어인 테런스 페이(Terence Pae)는 와트당 지능(Intelligence per wattage) 수치가 급격히 상승하고 있음을 강조한다. 작년까지만 해도 문장 완성조차 버거웠던 로컬 AI가 이제는 코드를 쓰고 브라우저를 제어하며 아마존에서 물건을 주문하는 수준까지 올라왔다.
이러한 흐름은 결국 거대 데이터 센터에 대한 의존도를 낮추는 결과로 이어진다. 법률이나 의료 분야처럼 개인정보 보호가 극도로 중요한 산업군에서는 클라우드 대신 맥 스튜디오(Mac Studio, 고성능 데스크톱 컴퓨터) 같은 장비를 온프레미스(On-premise, 자체 서버 구축 방식)로 배치해 전력 소모를 줄이면서도 클라우드급 성능을 구현하려는 움직임이 나타나고 있다.
이제 AI의 경쟁력은 모델의 파라미터 숫자가 아니라, 내 데이터를 얼마나 안전하게 통제할 수 있는 하드웨어 제어권에서 결정된다.




