Cursor(AI 기반 코드 편집기)의 초기 사용자이자 AI 에이전트를 구축해 온 개발자가 갑자기 브루클린으로 향했다. 그는 모든 LLM 도구를 내려놓고 3개월간 오직 손으로만 코딩하는 Recurse Center(자기주도적 프로그래밍 리트릿)에 입소했다. AI가 코드를 대신 짜주는 시대에 가장 효율적인 도구를 버리고 가장 느린 방식으로 돌아간 장면이다.
17M 파라미터 모델과 기초 스택의 재구축
이 개발자는 Barcelona의 Aily Labs(AI 에이전트 개발사)에서 2024년 초 내부용 웹 검색 에이전트를 구축했다. 이는 Anthropic의 가이드라인보다 6개월, OpenAI의 DeepResearch보다 1년 앞선 성과였다. 그는 DeepSeek R1, Olmo 3(오픈소스 언어 모델), Llama 3(Meta의 대규모 언어 모델) 등의 논문을 분석하며 SOTA(현재 기술 수준에서 가장 뛰어난 성능) 모델 기반의 워크플로우를 설계했다.
리트릿 기간 동안 그는 Stanford의 CS336(언어 모델링 기초 과정) 과제를 LLM 도움 없이 수행했다. PyTorch(파이썬 기반 딥러닝 프레임워크)를 사용해 GPT-2 스타일의 아키텍처를 직접 구현했다. Tiny Stories 데이터셋과 OpenWebText(약 90억 토큰 규모의 웹 텍스트 데이터셋)를 활용해 하이퍼파라미터 튜닝을 진행했다. 직접 작성한 17M 파라미터 모델은 A100(고성능 AI 가속기)에서 약 1시간 동안 학습되었다.
학습 과정은 여기서 멈추지 않았다. Triton(GPU 프로그래밍 언어)을 이용해 FlashAttention2(메모리 효율을 극대화한 어텐션 메커니즘)를 구현하기 시작했다. 또한 Vim(텍스트 기반 코드 편집기)에서 단일 레이어 퍼셉트론(가장 단순한 형태의 신경망)을 손으로 코딩하고, Clojure(함수형 프로그래밍 언어) 워크숍에 참여해 mob programming(여러 명이 하나의 키보드로 함께 코딩하는 방식)을 경험했다. CTF Fridays(해킹 방어 대회 형식의 학습)를 통해 Unix(운영체제 커널)와 터미널 환경의 숙련도를 높였다.
AI 에이전트가 지운 학습의 경로와 레버리지
코딩 에이전트는 빠른 반복과 안정적인 배포를 가능하게 한다. 하지만 이 효율성은 학습의 기회비용을 발생시킨다. 손으로 코드를 쓸 때는 원하는 기능을 구현하는 동시에 코드베이스 전체를 학습하는 행위가 동시에 일어난다. 반면 에이전트를 사용할 때는 프롬프트에 지정한 결과물만 얻게 된다. 사용자가 원하는 바를 불명확하게 제시하면 에이전트가 임의로 가정을 내려 코드를 작성한다. 이 과정에서 개발자가 코드베이스를 깊게 이해할 기회는 사라진다.
이는 글쓰기와 운동의 관계와 같다. 명확한 보고서를 쓰기 위해 겪는 정신적 긴장은 운동선수가 체육관에서 겪는 고통과 같다. 제거해야 할 성가심이 아니라 기술을 습득하기 위한 핵심 요소다. 코드 작성 역시 마찬가지다. 직접 고민하고 타이핑하는 과정에서 형성되는 근육 기억이 기술적 직관을 만든다.
실제로 10년 이상의 Python(범용 프로그래밍 언어) 경력자는 문법이 기억나지 않을 때 LLM에 묻지 않는다. 즉시 터미널을 열어 간단한 예제를 입력하고 1분 안에 동작을 확인한다. 이러한 근육 기억화된 프로세스는 문제 해결의 병목을 제거한다. AI 도구를 가장 뛰어나게 활용하는 엔지니어들은 역설적으로 가장 깊은 기초 지식을 갖춘 사람들이었다. 기초 역량이 탄탄할수록 AI라는 도구를 통해 얻는 레버리지가 극대화되기 때문이다.
이제 그는 Claude Code(터미널 기반 AI 코딩 도구)가 자신의 컴퓨터에서 정확히 무엇을 실행하려 하는지 완전히 파악할 수 있게 되었다. 추상화 계층 아래에서 벌어지는 일을 이해하자 AI의 제안을 검증하는 속도가 달라졌다.
AI 시대의 진정한 경쟁력은 프롬프트를 잘 쓰는 능력이 아니라 AI가 생성한 결과물의 저수준 동작을 완전히 장악하는 능력에서 나온다.




