컴퓨터 코드를 짤 때 AI가 단순히 정답만 알려주는 것이 아니라 직접 파일을 열고 버그를 고친다면 어떨까. 이제 AI는 비서 수준을 넘어 스스로 일하는 일꾼이 되려 한다. 그런데 이 똑똑한 일꾼이 아주 작은 덩치로 나타났다. 왜 덩치가 작은 AI가 거대한 AI보다 더 일을 잘하게 되었을까.
알리바바가 공개한 30억 개의 효율적 뇌
알리바바가 Qwen3.6-35B-A3B라는 새로운 AI를 세상에 내놓았다. 이 AI는 MoE(필요한 전문가 네트워크만 골라 쓰는 효율적인 구조)라는 방식을 사용한다. 전체 뇌세포는 350억 개지만 실제로 일을 할 때는 30억 개만 사용한다. 전체의 8.6%만 움직여도 충분한 성능을 내도록 설계했다.
이 AI의 가장 큰 무기는 에이전틱 코딩(AI가 스스로 파일을 찾고 버그를 고치는 자율 코딩) 능력이다. 실제 소프트웨어 버그를 고치는 시험인 SWE-bench Verified(소프트웨어 수정 능력 측정 시험)에서 73.4점을 받았다. 이는 모든 뇌세포를 다 사용하는 Dense(모든 계산 능력을 전부 사용하는 전통적인 방식) 모델인 Qwen3.5-27B보다 더 높은 점수다.
글자뿐 아니라 그림과 영상까지 이해하는 멀티모달(글자, 그림, 영상을 모두 이해하는 능력) 성능도 뛰어나다. 이미지 속 물건의 위치를 찾는 시험에서는 유료 모델인 Anthropic의 Claude Sonnet 4.5보다 더 좋은 성적을 냈다. 또한 Claude Code(AI가 코드를 직접 짜주는 도구) 같은 외부 도구와도 바로 연결해서 쓸 수 있다.
적은 비용으로 유료 AI의 성능을 구현하는 법
지금까지 AI 세상에서는 덩치가 클수록 더 똑똑하다는 믿음이 있었다. 하지만 이번 모델은 그 상식을 깼다. 30억 개의 활성 부품만으로 270억 개의 부품을 쓰는 모델과 비슷하거나 더 나은 결과를 냈다. 이는 AI를 돌리는 데 필요한 GPU(AI 계산을 빠르게 처리하는 전용 부품) 메모리와 전기 에너지를 획기적으로 줄여준다.
기업 입장에서 이는 엄청난 비용 절감으로 이어진다. 그동안은 Anthropic 같은 회사가 제공하는 비싼 API(프로그램들이 서로 소통하는 규칙)를 돈 내고 빌려 써야 했다. 하지만 성능 좋은 오픈소스 AI가 나오면 기업이 직접 자신의 컴퓨터에 설치해 쓸 수 있다. 매달 내던 구독료를 아끼면서 보안까지 챙길 수 있는 길이 열린 것이다.
업계의 평가 기준이 바뀌고 있다는 점도 중요하다. 이제는 AI가 얼마나 많은 지식을 가졌느냐보다 얼마나 스스로 일을 완수하느냐를 더 중요하게 본다. 이번 모델이 코딩 자율성 시험에서 높은 점수를 받은 것은 AI의 역할이 지식 전달자에서 실행자로 옮겨가고 있음을 보여준다. 효율적인 구조가 성능을 압도하는 새로운 지형이 만들어졌다.
생각의 과정을 기억하는 영리한 전략
이 모델은 Google의 Gemma4-26B-A4B보다 대부분의 시험에서 더 앞선 성적을 거뒀다. 특히 preserve_thinking(AI가 이전에 어떻게 생각했는지 그 과정을 기억하는 기능)이라는 기술이 핵심이다. AI가 복잡한 문제를 풀 때 앞서 고민했던 내용을 잊지 않고 끝까지 유지할 수 있게 돕는다.
또한 Anthropic API 프로토콜(데이터를 주고받는 약속)과 호환된다는 점이 전략적 포석이다. 이미 많은 개발자가 사용하고 있는 Anthropic의 생태계에 그대로 들어갈 수 있기 때문이다. 도구를 바꾸지 않고 AI 모델만 교체하면 되므로 사용자의 진입 장벽이 매우 낮다.
물론 완벽한 것은 아니다. 아주 어려운 학술적인 추론이나 일반적인 비서 업무에서는 여전히 덩치가 큰 모델보다 조금 뒤처지는 모습이다. 하지만 코딩이라는 명확한 목적을 가진 작업에서는 이미 충분한 경쟁력을 갖췄다. 작은 덩치로 큰 효율을 내는 것이 AI 비즈니스의 새로운 표준이 되고 있다.
AI는 이제 무조건 크게 만드는 경쟁에서 벗어나 가장 효율적으로 일하는 방향으로 진화하고 있다. 스스로 생각하고 행동하는 작은 AI들이 기업의 업무 방식을 빠르게 바꿀 것이다.




