개발자가 코드를 작성하다 보면 터미널 앞에서 하염없이 기다려야 하는 순간이 찾아온다. 복잡한 리팩토링이나 테스트 생성 작업을 걸어두고 나면, 컴퓨터가 작업을 마칠 때까지 다른 일을 하기가 조심스럽기 때문이다. 최근 Mistral(프랑스의 인공지능 연구 기업)은 이러한 병목 현상을 해결하기 위해 코딩 에이전트를 로컬 노트북에서 클라우드로 옮기는 방식을 선택했다. 이제는 개발자가 직접 붙잡고 있지 않아도, 인공지능이 알아서 코드를 짜고 결과를 알려주는 환경이 마련되었다.
Mistral Medium 3.5의 성능과 사양
이번에 공개된 Mistral Medium 3.5는 128B(1280억 개의 매개변수를 가진 모델) 규모의 밀집형 모델로, 256k(25만 6천 개의 토큰을 한 번에 처리하는 범위)의 컨텍스트 윈도우를 지원한다. 이 모델은 추론과 코딩 능력을 하나의 가중치 세트에 담아낸 것이 특징이다. 벤치마크 지표인 SWE-Bench Verified에서 77.6%의 점수를 기록하며 기존의 Devstral 2나 Qwen3.5 397B A17B 모델을 앞섰다. 특히 사용자가 추론 강도를 요청마다 조절할 수 있어, 간단한 채팅 응답부터 복잡한 에이전트 작업까지 유연하게 대응한다. 모델은 Hugging Face에서 공개 가중치로 제공되며, API 가격은 입력 100만 토큰당 1.5달러, 출력 100만 토큰당 7.5달러로 책정되었다. 또한 NVIDIA NIM(엔비디아의 추론용 마이크로서비스)을 통해 컨테이너 형태로도 활용할 수 있다.
로컬 터미널에서 클라우드 에이전트로의 전환
예전에는 코딩 에이전트가 개발자의 노트북 안에서만 머물렀다. 이제는 Mistral Vibe(Mistral의 코딩 자동화 도구) CLI(명령줄 인터페이스)를 통해 작업을 클라우드로 전송할 수 있다. 개발자가 로컬에서 시작한 작업을 클라우드로 옮기면, 에이전트는 독립된 샌드박스(외부와 격리된 안전한 실행 환경)에서 코드를 수정하고 패키지를 설치한다. 작업이 끝나면 GitHub(코드 저장소)에 풀 리퀘스트를 생성하고 사용자에게 알림을 보낸다. 사용자는 모든 타이핑 과정을 지켜볼 필요 없이, 최종 결과물만 검토하면 된다. 특히 여러 작업을 동시에 병렬로 실행할 수 있어, 개발자는 더 이상 에이전트의 각 단계마다 멈춰 서서 기다리는 병목이 되지 않는다.
Le Chat의 워크 모드와 에이전트의 확장
결과적으로 개발자는 Le Chat(Mistral의 대화형 AI 인터페이스)에서 직접 코딩 세션을 시작하고 관리할 수 있게 되었다. 새롭게 추가된 워크 모드는 에이전트가 단순히 답변만 하는 것이 아니라, 실행 엔진의 역할을 수행하도록 설계되었다. 이 모드에서는 문서, 메일함, 캘린더 등 외부 시스템과 연결하는 커넥터가 기본으로 활성화되어, 에이전트가 더 풍부한 맥락을 바탕으로 판단한다. 사용자는 에이전트가 도구를 호출하고 추론하는 과정을 실시간으로 확인할 수 있으며, 데이터 수정이나 메시지 발송 같은 민감한 작업은 반드시 사용자의 명시적 승인을 거치도록 설정되어 있다. 이는 단순한 챗봇을 넘어, 복잡한 다단계 프로젝트를 끝까지 완수하는 실무형 비서로의 진화를 의미한다.
인공지능이 단순히 코드를 제안하는 단계를 넘어, 개발자의 의도를 파악하고 독립적으로 결과물을 도출하는 실행 주체로 자리 잡고 있다.




