월요일 오전 10시, 실리콘밸리의 한 테크 기업 채용 회의실. 인사 담당자가 신입 개발자 채용 규모를 2019년 대비 절반으로 줄인 명단을 보고한다. 문서 검토와 기초 리서치, 코드 리뷰 업무가 이미 AI로 대체되었기 때문이다. 이 효율적인 풍경 뒤에 지식의 단절이라는 위험이 숨어 있다.
AI 자동화가 지운 주니어의 자리
주요 테크 기업의 신입 사원 채용 규모는 2019년 이후 50% 감소했다. 문서 검토, 1차 리서치, 데이터 정제, 코드 리뷰 같은 기초 업무를 AI가 수행하면서 벌어진 결과다. 업계는 이를 효율성 개선으로 정의한다. 반면 AI 모델의 성능 향상을 위해서는 오류를 잡아내고 고품질 피드백을 줄 수 있는 인간 평가자가 필수적이다.
RL(Reinforcement Learning, 시행착오를 통해 보상을 최대화하는 학습 방식)은 이 문제의 대안으로 거론된다. AlphaZero(구글 딥마인드의 바둑 AI)는 인간 데이터 없이 자가 학습만으로 이세돌 9단을 꺾는 '37수' 같은 창의적 수를 찾아냈다. 주목할 점은 바둑의 환경이 고정되어 있다는 사실이다. 규칙이 명확하고 승패라는 완벽한 보상 신호가 즉각적으로 주어진다.
지식 노동의 환경은 이와 다르다. 법률, 금융, 의료 분야의 규칙은 인간에 의해 끊임없이 수정된다. 2022년에 유효했던 법적 전략이 현재는 통하지 않을 수 있으며, 의료 진단의 정답 여부는 수년 뒤에나 판명된다. 보상 신호가 불분명한 환경에서는 인간 평가자의 개입 없이는 학습 루프를 닫을 수 없다.
자동화된 숙련도와 실제 전문성의 괴리
예전에는 주니어 단계에서 수많은 시행착오를 겪으며 전문가의 직관을 쌓았다. 이제는 그 진입 단계의 업무가 가장 먼저 자동화되었다. 개발자가 직접 코드를 짜며 겪는 구조적 고민의 과정이 사라지면, 결과적으로 새로운 시스템 설계를 가능하게 하는 깊은 아키텍처 직관을 가진 전문가 집단 자체가 줄어든다.
분야가 자동화되는 것과 그 분야가 완전히 이해되는 것은 별개의 문제다. 구조 공학의 상당 부분을 자동화할 수 있지만, 특정 방식이 왜 작동하는지에 대한 추상적 지식은 수년간 실패를 경험한 전문가의 머릿속에 존재한다. 실습 과정이 제거되면 단순한 실무자뿐 아니라, 무엇을 잃어버렸는지조차 인지할 수 있는 능력 자체가 소멸한다.
역사적으로 로마의 콘크리트 제조법이나 고딕 건축 기술 같은 지식이 소멸한 사례가 있다. 과거에는 전염병이나 전쟁 같은 외부적 충격이 원인이었다. 반면 현재의 지식 소멸은 개별 기업의 합리적인 경제적 결정들이 모여 서서히 진행된다. 펀딩이 끊기고 커리어 경로가 사라지면 고등 수학이나 이론 컴퓨터 과학, 복잡한 시스템 아키텍처 같은 심화 분야의 전문성은 조용히 무너진다.
이 과정에서 가장 위험한 점은 벤치마크 수치의 착시 현상이다. 전문가가 은퇴하고 대체자가 없더라도, 그들이 남긴 데이터를 학습한 모델은 향후 10년 동안은 여전히 전문가처럼 보일 수 있다. 겉으로는 역량이 유지되는 것처럼 보이지만, 내부적으로는 그 전문성을 검증하고 수정할 인간의 능력이 사라지는 공동화 현상이 일어나는 것이다.
현재 업계가 의존하는 방식은 루브릭(Rubric, 평가 기준표) 기반 평가다. Constitutional AI(AI에게 헌법과 같은 원칙을 주어 스스로 행동을 교정하게 하는 기술)나 RLAIF(Reinforcement Learning from AI Feedback, 사람 대신 AI가 생성한 피드백으로 모델을 강화 학습시키는 방법)가 대표적이다. 그러나 루브릭은 작성자가 이미 알고 있는 측정 가능 항목만 담을 수 있다.
경험에서 우러나오는 직관이나 무언가 잘못되었다는 감각은 루브릭에 기록되지 않는다. 이는 명문화하기 전에 먼저 경험해야만 알 수 있는 영역이다. 모델이 루브릭을 완벽하게 만족시킨다고 해서 그것이 곧 정답임을 의미하지는 않는다.
표면적인 성능 수치는 유지되겠지만, 그 수치를 검증하고 확장할 인간의 역량이 사라지는 지식의 공동화가 시작되었다.




