화요일 오후 2시, 개발자의 홈 오피스 책상. 모니터 세 대에는 코드 에디터와 터미널, 그리고 웹 브라우저가 어지럽게 띄워져 있다. AI가 짜준 코드를 복사해 에디터에 붙여넣고 다시 터미널에서 실행하며 오류를 확인하는 반복 작업이 계속된다. 이 파편화된 작업 흐름이 곧 바뀐다.
DeepSeek V4 기반의 터미널 통합 제어
DeepSeek-TUI(터미널에서 실행되는 DeepSeek 모델용 코딩 에이전트)가 공개되었다. 이 도구는 DeepSeek V4 모델을 기반으로 하며 파일 편집, 셸 실행, Git(버전 관리 시스템) 관리, 웹 검색을 키보드 중심의 TUI(텍스트 기반의 사용자 인터페이스)에서 모두 처리한다.
사용자가 `--model auto` 옵션을 설정하면 매 턴마다 deepseek-v4-pro 또는 deepseek-v4-flash 모델을 자동으로 선택한다. 사고 수준 역시 off, high, max 중 최적의 값을 자동으로 결정한다. 이는 경량 Flash 모델이 먼저 요청을 받아 판단한 뒤 실제 모델로 전달하는 라우팅 방식을 사용한다.
기술적 사양으로는 1M 토큰의 컨텍스트 윈도우(AI가 한 번에 기억할 수 있는 정보량)를 지원하며 스트리밍 추론 블록과 prefix-cache(반복되는 입력값을 저장해 비용을 줄이는 기술) 인식 기능을 통한 실시간 비용 추적 기능을 내장했다.
운영 모드는 세 가지로 나뉜다. 읽기 전용으로 탐색만 하는 Plan 모드, 사용자의 승인을 거쳐 대화하는 Agent 모드, 그리고 모든 작업을 자동으로 승인하는 YOLO 모드가 그것이다.
확장성을 위해 MCP(Model Context Protocol, AI 모델이 외부 도구와 소통하는 표준 규격) 프로토콜을 연동했다. 전송 방식은 Stdio, SSE, Streamable HTTP 세 가지를 지원한다.
코드 품질 관리를 위해 rust-analyzer, pyright, gopls, clangd 같은 LSP(Language Server Protocol, 코드의 문법 오류를 찾아주는 표준 프로토콜) 인라인 진단을 자동으로 반영한다.
세션 저장과 복원은 물론 side-git 스냅샷을 이용한 워크스페이스 롤백(이전 상태로 되돌리기)과 재시작 후에도 유지되는 내구성 태스크 큐를 지원한다.
서버 실행을 위해 `deepseek serve --http` 명령어로 HTTP/SSE 헤드리스 API 서버를 구동할 수 있으며, Zed(고성능 텍스트 에디터)와는 `--acp` 옵션을 통해 Agent Client Protocol로 연동된다.
Skills 시스템을 통해 GitHub에서 인스트럭션 팩을 설치할 수 있다.
/skill install github:owner/repo에이전트는 load_skill 명령어로 필요한 기술을 자동 선택하며 별도의 백엔드 서비스가 필요 없다.
외부 API 프로바이더로는 NVIDIA NIM(엔비디아가 제공하는 AI 모델 배포 최적화 도구), Fireworks(AI 모델 추론을 빠르게 제공하는 클라우드 서비스), OpenAI, SGLang(AI 추론 속도를 높여주는 라이브러리), vLLM(대규모 언어 모델을 효율적으로 서빙하는 엔진), Ollama(내 컴퓨터에서 AI 모델을 쉽게 돌리게 해주는 도구) 등을 지원한다.
설치는 npm, Cargo, Homebrew, Docker, Scoop 및 소스 빌드를 통해 가능하다. v0.8.8 버전부터는 Raspberry Pi나 Graviton 같은 Linux ARM64(저전력 고효율 CPU 아키텍처)용 프리빌트 바이너리도 제공한다. 라이선스는 MIT 라이선스로 공개되었다.
복사 붙여넣기 없는 자동화 워크플로우
예전에는 AI가 제안한 코드를 사람이 직접 복사해 파일에 붙여넣고 터미널에서 명령어를 입력해 실행했다. 이제는 DeepSeek-TUI가 터미널 안에서 직접 파일을 수정하고 셸 명령어를 실행하며 Git 커밋까지 마친다. 비유하자면, 요리법만 알려주던 AI가 이제는 주방에 들어와 직접 재료를 썰고 불을 조절하는 조리 보조가 된 셈이다.
모델 선택 방식에서도 차이가 난다. 기존에는 사용자가 모델의 성능과 비용을 고민해 직접 선택해야 했다. DeepSeek-TUI는 라우팅 시스템을 통해 가벼운 작업은 Flash 모델로, 복잡한 추론은 Pro 모델로 자동 배분한다. 쉽게 말하면, 간단한 심부름은 아르바이트생에게, 중요한 계약서는 전문 변호사에게 자동으로 배정하는 관리자가 중간에 배치된 것과 같다.
운영 모드의 세분화는 작업의 통제권을 바꾼다. 모든 단계를 확인하던 기존의 조심스러운 방식에서 벗어나, YOLO 모드를 선택하면 AI가 스스로 판단해 결과물을 만들어낸다. 개발자가 바로 체감하는 변화는 승인 버튼을 누르는 횟수가 획기적으로 줄어든다는 점이다.
인프라 구성의 유연성도 달라졌다. 로컬 환경에서만 돌아가던 도구들과 달리, 헤드리스 API 서버 모드를 통해 원격으로 제어하거나 Zed 에디터와 직접 연동해 사용할 수 있다. 이는 터미널이라는 좁은 창을 넘어 개발 환경 전체로 AI의 영향력을 확장한 결과다.
이제 코딩 AI는 단순한 채팅창을 넘어 개발자의 셸(Shell, 운영체제와 소통하는 명령어 창) 자체를 점유하는 운영체제급 도구로 진화하고 있다.




