2분. 인터랙티브 위저드인 make setup을 실행하고 나면 복합 작업을 수행할 준비가 끝나는 시간이다. 이 수치는 복잡한 에이전트 환경을 구축하기 위해 들이던 수많은 설정 시간을 단 몇 분으로 압축했음을 의미한다. 마치 복잡한 조립식 가구를 단 한 번의 클릭으로 완성하는 것과 같다. 그런데 ByteDance가 공개한 DeerFlow 2.0은 단순히 설치 속도만을 개선한 도구가 아니다.

DeerFlow 2.0의 기술적 구조와 확장성

이번에 공개된 DeerFlow 2.0은 기존의 Deep Research 프레임워크와 코드를 완전히 분리하여 재작성된 결과물이다. LangGraph(에이전트의 흐름을 그래프로 제어하는 도구)와 LangChain(LLM 애플리케이션 개발 프레임워크)을 기반으로 구축되어 복합 작업을 하위 에이전트로 자동 분해하고 병렬 처리한다. 리서치, 코딩, 콘텐츠 생성 등 수 분에서 수 시간이 소요되는 작업을 효율적으로 관리하는 것이 핵심이다. DeerFlow GitHub 저장소에서 확인할 수 있듯이, 이 시스템은 마크다운 파일 기반의 스킬 시스템을 채택했다. 사용자는 리서치, 보고서 작성, 슬라이드 생성, 이미지 및 비디오 제작 등 기본 제공되는 스킬을 자유롭게 조합하거나 커스텀 스킬을 추가할 수 있다. 스킬은 점진적 로딩 방식을 사용하여 필요한 시점에만 컨텍스트에 로드되므로 토큰 사용량에 민감한 모델에서도 효율적인 동작을 보장한다.

격리된 실행 환경과 메모리 관리

예전에는 에이전트가 로컬 환경에서 코드를 실행할 때 보안과 안정성 문제가 항상 뒤따랐다. 이제는 작업별로 독립적인 샌드박스 실행 환경을 제공하여 이를 해결했다. AioSandboxProvider(격리된 Docker 컨테이너를 통해 코드를 실행하는 도구)를 통해 파일 시스템 접근, 셸 실행, 이미지 조회까지 실제 컴퓨터와 유사한 환경을 구현한다. 로컬 환경인 LocalSandboxProvider는 기본적으로 호스트의 bash 실행을 비활성화하여 보안을 강화했다. 또한 장기 기억(Long-Term Memory) 기능을 통해 세션 간 사용자 프로필과 선호도, 기술 스택을 로컬에 영속적으로 저장한다. 중복 항목을 자동으로 건너뛰는 알고리즘을 적용해 메모리 효율성을 극대화했다.

컨텍스트 엔지니어링과 채널 통합

개발자가 바로 체감하는 변화는 컨텍스트 관리 방식이다. 서브 에이전트별로 컨텍스트를 격리하고, 완료된 태스크는 요약하며, 중간 결과물은 파일 시스템으로 오프로딩(데이터를 외부 저장소로 옮기는 작업)한다. Strict Tool-Call Recovery(도구 호출 실패 시 복구하는 기능)를 도입하여 컨텍스트 윈도우 초과로 인한 오류를 방지했다. 또한 텔레그램, 슬랙, Feishu/Lark, 위챗, WeCom, 딩톡 등 6개 메신저 채널을 통합했다. 공인 IP 없이도 자동 시작이 가능하며, 채널별로 사용자가 원하는 에이전트를 지정할 수 있다. MCP(모델과 외부 데이터를 연결하는 표준 규격) 서버 확장도 지원하며, Claude Code 터미널에서 claude-to-deerflow 스킬을 사용해 직접 연동할 수 있다.

개발자 환경과 라이브러리 지원

실제 운영 환경에서의 가시성도 확보했다. LangSmith(LLM 애플리케이션의 성능을 추적하는 도구)와 Langfuse(LLM의 실행 과정을 기록하고 분석하는 도구)를 동시에 트레이싱할 수 있어 디버깅이 용이하다. 또한 임베디드 파이썬 클라이언트를 제공하여 별도의 HTTP 서비스 없이도 라이브러리 형태로 즉시 호출이 가능하다. OpenAI, OpenRouter, vLLM(대규모 언어 모델을 빠르게 실행하는 엔진), Codex CLI 등 다양한 LLM 프로바이더를 지원하며 MIT 라이선스로 배포된다.

에이전트의 가치는 이제 모델의 성능을 넘어, 얼마나 복잡한 워크플로우를 안정적으로 격리하고 자동화할 수 있는지에 달렸다.