월요일 오전, 시애틀 아마존 본사 사무실.
한 직원이 이미 완료한 보고서를 AI에게 다시 요약하라고 명령하며 화면을 캡처한다.
이 장면 뒤에는 수치로 증명해야 하는 AI 도입 압박이 있다.
AI 사용량 강제와 지표의 왜곡
아마존은 최근 Amazon Q(아마존의 기업용 AI 비서)를 전사적으로 도입하며 사용량 확대를 강하게 추진하고 있다. 관리자들은 직원들에게 AI를 활용한 업무 효율화를 요구하며, 이를 KPI(핵심성과지표)에 반영하기 시작했다. 현장 직원들은 할당된 AI 사용량을 채우기 위해 실제로는 필요 없는 단순 작업까지 AI에게 맡기거나, 존재하지 않는 가짜 업무를 만들어 프롬프트를 입력하는 방식을 택하고 있다.
주목할 점은 이러한 행위가 개인의 일탈이 아닌 조직적 압박에 의한 생존 전략이라는 점이다. AI 도구의 도입 목적은 비용 절감과 속도 향상이었으나, 실제 측정 지표는 사용 횟수라는 단순 수치에 매몰되었다. 결과적으로 직원들은 AI를 통해 업무를 줄이는 것이 아니라, AI를 사용하기 위해 새로운 업무를 만들어내는 기현상을 보이고 있다.
결과 중심에서 도구 중심의 평가로
예전에는 프로젝트의 완결성과 코드의 안정성이 개발자의 능력을 증명하는 기준이었다. 반면 이제는 AI 도구를 통해 얼마나 많은 코드를 생성했는지, 혹은 얼마나 많은 질문을 던졌는지가 기록되고 평가된다. 과거의 성과 측정이 결과물이라는 종착지에 집중했다면, 현재의 측정 방식은 AI 사용이라는 과정 자체에 매몰되어 있다.
그러나 이러한 전환은 심각한 부작용을 낳는다. 도구의 숙련도가 아닌 단순 사용 횟수가 평가 기준이 되면서 업무의 본질이 왜곡되기 때문이다. 효율적인 개발자는 단 한 번의 정확한 프롬프트로 문제를 해결하지만, 지표를 관리하는 개발자는 동일한 문제를 해결하기 위해 의도적으로 질문을 쪼개어 입력한다. 이는 AI 도입의 본질인 효율성 제고와 정면으로 충돌하는 지점이다.
생산성 연극과 데이터의 오염
개발자가 바로 체감하는 변화는 업무의 파편화다. 하나로 끝낼 수 있는 작업을 굳이 여러 번으로 나누어 질문함으로써 사용 횟수를 부풀리는 행위가 일상화되었다. 이러한 현상은 Goodhart's Law(지표가 목표가 되는 순간 더 이상 좋은 지표가 아니게 된다는 법칙)의 전형적인 사례로 볼 수 있다.
더 큰 문제는 이 과정에서 생성되는 데이터의 질이다. 기업이 내부 AI 모델을 고도화하기 위해 사용자의 로그 데이터를 수집한다면, 가짜 업무로 채워진 데이터는 모델의 학습 방향을 왜곡시킨다. 실제 업무 맥락이 없는 무의미한 프롬프트가 쌓이면서, AI 모델은 실제 효율적인 업무 패턴이 아닌 지표 맞춤형 패턴을 학습하게 된다.
결과적으로 AI가 내놓은 잘못된 답변을 수정하는 시간보다, 지표를 맞추기 위해 AI를 사용하는 시간이 더 길어지는 생산성 역설(Productivity Paradox, 기술 투자가 생산성 향상으로 이어지지 않는 현상)이 발생한다. 이는 AI 도입의 성공 여부를 판단하는 기준이 잘못 설정되었을 때 발생하는 전형적인 조직적 실패다.
도구의 사용량을 성과로 착각하는 조직은 AI가 가져올 진짜 효율성을 영원히 발견하지 못한다.




