오후 2시, 캘리포니아의 한 재택 근무 공간.

모니터에는 챗봇이 생성한 어색한 문장들이 나열되어 있고, 그 옆에는 엄격한 채점 기준표가 띄워져 있다. 프라임타임 드라마를 집필하던 작가가 이제는 AI의 답변에 1점에서 5점 사이의 점수를 매기며 시간을 보낸다.

이 장면 뒤에는 할리우드 창작자들이 AI 학습 데이터 구축이라는 단순 노동으로 밀려나는 현실이 있다.

AI 학습 데이터 구축의 실태와 보수 체계

Mercor(AI 인력 매칭 플랫폼)를 비롯해 Outlier(데이터 학습 플랫폼), Task-ify(작업 관리 서비스), Turing(AI 개발자 매칭 플랫폼), Handshake(취업 플랫폼), Micro1(AI 채용 플랫폼) 같은 기업들이 작가들을 고용하고 있다. 채용 과정은 까다롭다. 10건의 입사 지원서를 제출하고 20시간의 무급 테스트를 거쳐야 하며, 최종 면접은 화면 속 깜빡이는 빛으로 구현된 AI 리크루터(채용 담당 AI)가 진행한다. 합격 후 제너럴리스트(일반 숙련자) 등급을 받은 작업자는 시간당 52달러의 보수를 받는다.

작업 내용은 다양하다. 챗봇의 톤이 자연스러운지 평가하거나 가구 사진에서 특정 패턴을 식별하고, 영상 속 강아지가 짖는 정확한 밀리초 단위의 타임스탬프(시간 기록)를 찍는 일이 포함된다. 특히 레드팀(보안 취약점을 찾기 위해 공격자 역할을 하는 팀) 활동의 일환으로 가정용품을 이용한 폭탄 제조법이나 혐오 표현을 생성해 AI의 안전 가드레일을 테스트하는 작업도 수행한다.

데이터 라벨러(데이터에 이름을 붙여 AI가 학습하게 돕는 작업자)가 된 작가들은 사용자와 AI의 대화를 분석한다. 사용자가 자신의 우울감이나 정체성에 대해 묻는 사적인 질문에 AI가 어떻게 답했는지 확인하고, 이를 사전에 정의된 바이블(작업 지침서)에 따라 성공 또는 실패로 판정한다. 과거의 AI 모델이 사용자의 상태를 함부로 진단하던 오류를 잡아내고, 그 근거를 텍스트로 입력하는 과정이 반복된다.

창의적 집필에서 기계적 라벨링으로의 전환

과거의 작가들은 캐릭터의 서사와 갈등을 설계하며 창의성을 발휘했다. 반면 현재의 AI 트레이너(AI 학습 데이터 교정자)는 바이블이라 불리는 엄격한 가이드라인에 따라 답변의 성공 여부를 판정한다. 주목할 점은 이 과정에서 작가의 창의적 사고가 오히려 방해 요소로 취급된다는 사실이다. 프로젝트 매니저는 독창적인 언어나 화려한 문체 대신 가이드라인의 문구를 그대로 복사해 붙여넣는 기계적 정확성을 요구한다.

작업 환경 역시 파편화되어 있다. 작업자는 슬랙(Slack, 협업 메신저) 채널과 에어테이블(Airtable, 데이터베이스 도구), 구글 문서 등 여러 플랫폼을 동시에 오가며 업무를 수행한다. 하지만 이러한 복잡한 설정과 달리 실제 업무의 본질은 단순하다. 창의적인 생각이나 독자적인 해석을 덧붙이는 행위는 모델의 학습 방향을 흐트러뜨릴 수 있다는 이유로 금지된다.

고용의 안정성 또한 과거와 완전히 다르다. TV 시리즈 계약은 수개월에서 수년의 기간을 보장했지만, AI 학습 프로젝트는 예고 없이 종료된다. 슬랙 채널과 에어테이블 워크스페이스가 단 몇 시간 만에 삭제되며 작업이 중단되는 사례가 빈번하다. 이는 고도의 전문성을 가진 인력이 AI 산업의 일시적인 소모품으로 활용되고 있음을 보여준다.

결과적으로 개발자나 기업이 요구하는 것은 작가의 예술적 영감이 아니라, 정해진 규칙을 완벽하게 수행하는 인간의 검수 능력이다. 2023년 할리우드 파업 당시 작가들이 우려했던 AI의 대체는 단순히 일자리의 상실이 아니라, 노동의 성격 자체가 창조에서 단순 검수로 격하되는 형태로 나타나고 있다.

인간의 창의성을 복제하려는 AI가 정작 그 창의성을 가진 인간을 가이드라인의 노예로 만들었다.