금융 분석가 한 명이 기업 보고서를 쓰기 위해 며칠을 밤새우는 장면을 떠올려 보자. 수십 개의 웹사이트를 뒤져 최신 트렌드를 찾고, 회사 내부 서버에 저장된 수천 페이지의 PDF 파일을 열어 대조하며, 마지막으로 엑셀을 켜서 수치를 그래프로 옮긴다. 정보 수집과 정리라는 단순 반복 작업에 정작 중요한 인사이트를 도출할 시간의 절반 이상을 쏟아붓는 상황이다.

Gemini 3.1 Pro 기반 Deep Research 2종의 스펙

Google이 이러한 워크플로우를 자동화하는 Deep Research와 Deep Research Max 두 가지 에이전트를 공개했다. 이 시스템은 Gemini 3.1 Pro 모델을 기반으로 하며, 개발자가 API(응용 프로그램 인터페이스, 소프트웨어 간의 대화 규칙) 호출 한 번으로 공개된 웹 데이터와 기업 내부의 전용 정보를 결합해 분석할 수 있게 설계되었다.

두 모델은 목적에 따라 성능이 나뉜다. 표준 버전인 Deep Research는 낮은 지연 시간과 비용 효율성에 최적화되어 실시간 응답이 필요한 인터랙티브 앱에 적합하다. 반면 Deep Research Max는 확장된 테스트 시간 연산(test-time compute, 모델이 최종 답변을 내놓기 전 스스로 추론하고 수정하는 과정을 반복해 품질을 높이는 기술)을 활용한다. Max 모델은 DeepSearchQA(AI의 검색 및 답변 능력을 측정하는 벤치마크)에서 93.3%, HLE(고난도 추론 능력을 평가하는 벤치마크)에서 54.6%의 정확도를 기록했다.

이 에이전트들은 2025년 12월에 처음 소개된 Interactions API(AI 에이전트와 상호작용하기 위한 전용 인터페이스)를 통해 유료 티어 사용자에게 공개 프리뷰 형태로 제공된다. 특히 MCP(모델 컨텍스트 프로토콜, AI 모델을 외부 데이터 소스에 연결하는 개방형 표준)를 지원하여 FactSet, S&P, PitchBook(금융 데이터 제공 기업들)과 같은 전문 데이터 서비스의 서버와 직접 연결할 수 있다. 입력 데이터로는 PDF, CSV(쉼표로 구분된 텍스트 데이터 파일), 이미지, 오디오, 비디오 등 멀티모달 형식을 모두 수용한다.

MCP 도입과 추론 시간 확장이 가져온 변화

이번 업데이트의 핵심은 AI가 단순히 인터넷 검색을 잘하는 수준을 넘어 기업의 전용 데이터 분석가처럼 작동한다는 점이다. 쉽게 말하면 MCP는 AI를 위한 범용 어댑터와 같다. 기존에는 AI에게 내부 데이터를 학습시키거나 복잡한 파이프라인을 구축해야 했지만, 이제는 표준화된 플러그를 꽂듯 내부 데이터베이스나 문서 저장소를 연결하면 된다. 헤지펀드가 내부 딜 플로우 데이터베이스와 외부 금융 터미널을 동시에 연결해 통합 보고서를 뽑아내는 것이 가능해진 이유다.

모델의 체급 차이도 주목할 만하다. 비유하자면 Deep Research는 질문을 받자마자 빠르게 답을 내놓는 숙련된 비서이고, Deep Research Max는 며칠의 시간을 주고 심층 보고서를 맡기는 전문 연구원이다. Max 모델은 스스로 가설을 세우고 검색 결과가 부족하면 다시 검색하며 논리를 보완하는 과정을 거친다. 분석가가 퇴근 전 업무를 지시하면 다음 날 아침 완벽하게 출처가 표기된 보고서가 완성되어 있는 비동기식 업무 환경을 구현한 것이다.

여기에 네이티브 차트 및 인포그래픽 생성 기능이 추가되었다. 이전까지의 AI 연구 도구는 텍스트 결과물만 제공했기에 사용자가 데이터를 다시 엑셀로 옮겨 그래프를 그려야 했다. 이제는 AI가 분석한 수치를 바탕으로 시각화 자료를 직접 생성하므로, 데이터 추출부터 시각화까지 이어지는 병목 현상이 사라졌다. 결과적으로 기업은 맞춤형 엔지니어링 비용을 들이지 않고도 웹의 광범위한 정보와 내부의 정밀한 데이터를 한곳에서 융합할 수 있게 되었다.

AI가 단순한 채팅 상대를 넘어 완성된 결과물을 제출하는 디지털 직원으로 진화하고 있다.