이번 주 깃허브 트렌드에 AI 에이전트들이 서로 논쟁하고 작업을 할당하는 가상 오피스 장면이 포착되었다. 개발자가 API 뒤에 숨은 에이전트의 동작을 기다리는 대신, CEO, PM, 엔지니어 역할을 맡은 AI들이 브라우저 상의 공유 공간에서 실시간으로 협업하며 결과물을 만들어내는 모습이다. 이는 단순한 챗봇의 나열이 아니라, 하나의 팀이 공유 뇌를 가지고 24시간 작동하는 협업 환경을 구현한 장면으로 관찰된다.

WUPHF의 구성 요소와 구동 데이터

WUPHF(AI 에이전트들이 공유 오피스처럼 협업하게 돕는 도구)는 Go 언어로 작성되었으며, 기본적으로 Claude Code나 Codex CLI(터미널에서 실행하는 AI 코딩 도구)를 에이전트 엔진으로 사용한다. TUI(텍스트 사용자 인터페이스) 모드를 사용하려면 tmux(여러 개의 터미널 세션을 하나로 관리하는 도구) 설치가 필수적이다. 설치를 위해서는 다음과 같은 명령어를 AI 코딩 어시스턴트에 입력하여 진행하도록 제안한다.

bash

WUPHF 설치 및 실행 예시

curl -sSL https://raw.githubusercontent.com/photon-run/wuphf/main/install.sh | bash

wuphf --provider claude

이 시스템은 에이전트의 행동을 실행하기 위해 두 가지 액션 제공자를 지원한다. 로컬 CLI 바이너리를 통해 내 컴퓨터에서 직접 명령을 수행하는 방식과, Composio(SaaS 계정을 AI와 연결해 주는 통합 플랫폼)를 통해 Gmail이나 Slack 같은 외부 서비스의 OAuth 인증을 거쳐 작동하는 방식이다. 성능 측정 결과, 일반적인 오케스트레이터가 세션이 진행됨에 따라 입력 토큰이 124k에서 484k까지 증가하는 것과 달리, WUPHF는 입력 크기를 일정하게 유지하며 약 7배의 효율 차이를 보였다. 또한 Anthropic의 프롬프트 캐싱 기능을 활용해 97%의 캐시 읽기 비율을 기록했다.

공유 메모리 구조의 전환과 MCP 활용

예전에는 AI 에이전트 간의 정보 공유를 위해 전체 대화 기록을 계속해서 프롬프트에 밀어 넣는 방식을 사용했다. 이제는 개인용 노트와 팀 공유 위키라는 이분법적 메모리 구조를 도입하여 이 문제를 해결한다. 각 에이전트는 자신만의 비공개 노트(Private Memory)를 가지며, 중요하다고 판단된 정보만 팀 위키(Shared Memory)로 승격시킨다. 이 위키는 로컬 Git 저장소의 마크다운 파일 형태로 저장되어, 개발자가 직접 `git clone`으로 내려받거나 수정할 수 있는 파일 기반 시스템으로 설계되었다.

이 과정에서 MCP(모델 컨텍스트 프로토콜, AI 모델이 외부 데이터에 접근하는 표준 규격) 도구가 핵심적인 역할을 수행한다. 시스템은 `team_wiki_read`, `team_wiki_search`, `team_wiki_list`, `team_wiki_write`, `wuphf_wiki_lookup`, `run_lint`, `resolve_contradiction`과 같은 구체적인 도구 세트를 통해 위키를 관리한다. 만약 gbrain(지식 그래프 기반 백엔드)을 선택할 경우, OpenAI나 Anthropic의 API 키를 통해 임베딩과 벡터 검색 기능을 사용할 수 있다. 기존에 OpenClaw(에이전트 실행 환경을 제공하는 프레임워크)를 사용하던 사용자는 게이트웨이 URL과 인증 토큰을 입력하여 기존 에이전트를 WUPHF 오피스로 그대로 가져올 수 있다.

개발자가 바로 체감하는 변화는 에이전트의 '상태 유지' 방식이다. 기존에는 세션이 길어질수록 AI가 이전 맥락을 잊거나 토큰 비용이 기하급수적으로 늘어났으나, WUPHF는 필요한 정보만 위키에서 검색해 가져오는 구조를 취한다. 특히 역할별로 도구 세트를 다르게 로드하여, DM 모드에서는 27개가 아닌 4개의 MCP 도구만 로드함으로써 프롬프트 크기를 줄이고 캐시 적중률을 높였다. 에이전트는 브로커가 알림을 보낼 때만 생성되므로 유휴 상태에서의 리소스 낭비가 없는 제로 아이들 번(Zero Idle Burn) 구조를 실현했다. 관련 상세 구현은 WUPHF GitHub 저장소에서 확인할 수 있다.

이제 AI의 성능은 모델의 파라미터 수가 아니라, 에이전트가 공유하는 지식 저장소의 구조적 설계 능력에서 결정된다.