복잡한 이해관계가 얽힌 기획안이나 정책 문서를 작성할 때, 가상의 인물들이 이를 어떻게 받아들일지 미리 확인하고 싶어 하는 기획자들의 고민이 깊어지고 있다. 기존에는 이를 확인하기 위해 외부 클라우드 기반의 거대 언어 모델에 민감한 내부 문서를 업로드해야 했으나, 데이터 유출에 대한 우려로 인해 실제 업무에 적용하기에는 제약이 많았다. 최근 개발자 커뮤니티에는 이러한 보안 문제를 해결하면서도, 여러 AI 에이전트가 상호작용하며 시나리오를 검증하는 로컬 환경 전용 시뮬레이터가 등장했다.
mirollama의 기술적 구성과 작동 방식
mirollama(로컬 환경에서 다중 에이전트 시나리오를 실험하는 도구)는 외부 API 호출 없이 완전한 에어갭(외부 네트워크와 물리적으로 분리된 환경) 상태에서 작동하도록 설계되었다. 이 프로젝트는 기존의 mirofish 프로젝트에서 영감을 받아 개발되었으며, Ollama(로컬에서 거대 언어 모델을 실행하기 위한 도구)를 엔진으로 활용한다. 사용자가 PDF, Markdown, 텍스트 형태의 문서를 입력하면 시스템은 자동으로 온톨로지(지식 체계), 그래프, 페르소나, 시뮬레이션 결과, 최종 보고서까지 생성하는 파이프라인을 갖추고 있다.
시스템은 Flask(파이썬 기반의 웹 애플리케이션 프레임워크)를 백엔드로, Vue 3(사용자 인터페이스를 만들기 위한 자바스크립트 프레임워크)와 Vite(빠른 빌드 도구)를 프론트엔드로 구성하여 로컬 환경에서도 원활한 인터페이스를 제공한다. 또한 Docker Compose(여러 컨테이너를 정의하고 실행하는 도구)를 지원하여 복잡한 환경 설정 없이도 즉시 구동이 가능하다. 외부 정보가 필요할 경우를 대비해 SearXNG(개인 정보 보호를 강화한 자체 호스팅 검색 엔진)와 연동하여 로컬 환경 내에서 검색 기능을 확장할 수 있도록 설계되었다.
기존 클라우드 기반 시뮬레이션과의 차이점
예전에는 특정 시나리오를 검증하기 위해 OpenAI나 Anthropic과 같은 클라우드 서비스의 API를 호출하여 데이터를 전송해야 했다. 이 과정에서 기업의 기밀 문서나 민감한 정책 자료가 외부 서버에 노출될 위험이 상존했다. 이제는 mirollama를 통해 사용자가 보유한 로컬 서버 내에서 모든 연산이 이루어지므로 데이터 주권을 완전히 확보할 수 있다. 특히 단순한 챗봇 형태의 질의응답을 넘어, 여러 에이전트가 각자의 페르소나를 가지고 시장 반응이나 조직 내 갈등을 시뮬레이션한다는 점이 가장 큰 차별점이다.
현재 이 프로젝트는 Gemma 4(Google에서 개발한 경량화 언어 모델) 및 OSS 20B/120B 모델에 최적화되어 있다. 사용자는 공식 GitHub 저장소를 통해 소스 코드를 내려받고 로컬 환경에 구축할 수 있다. 설치를 위해서는 먼저 Ollama를 설치한 뒤, 프로젝트 디렉토리에서 다음 명령어를 통해 실행 환경을 구성한다.
docker-compose up --build이후 브라우저를 통해 로컬 서버에 접속하면 문서 업로드와 에이전트 설정을 시작할 수 있다. 개발팀은 현재 다양한 모델과의 호환성을 높이기 위해 오픈소스 기여를 기다리고 있으며, 로컬 환경에서의 추론 성능을 극대화하는 방향으로 업데이트를 지속하고 있다.
로컬 LLM의 연산 효율이 개선됨에 따라, 보안이 중요한 기업 환경에서 외부 API 의존도를 낮추는 온프레미스 AI 에이전트 도입이 6개월 내에 가속화될 것이다.



