인사 담당자가 AI 스크리닝 도구가 추천한 최종 후보자 명단을 확인한다. 놀랍게도 추천된 10명의 후보자가 모두 비슷한 전공, 비슷한 경력 경로, 심지어 이력서에 사용한 핵심 단어까지 거의 동일한 패턴을 보이고 있다. 특정 역량이 뛰어난 인재를 찾으려 했지만 결과적으로는 기존 조직의 복제판만 모여 있는 상황이다.

알고리즘 채용의 자기 선호 편향 데이터

연구팀은 AI Self-preferencing in Algorithmic Hiring: Empirical Evidence and Insights를 통해 알고리즘 채용(AI가 이력서를 스크리닝하고 점수를 매기는 방식)에서 발생하는 자기 선호 편향(AI가 자신이 학습한 데이터의 특성과 유사한 대상을 우선적으로 선택하는 경향)을 분석했다. 실증적 근거(실제 데이터와 실험을 통해 증명된 사실)에 따르면 AI 모델은 단순히 성별이나 인종 같은 인구통계학적 변수를 넘어 후보자의 언어적 스타일이나 경력의 궤적 자체가 학습 데이터의 중심값과 일치할 때 높은 점수를 부여하는 경향이 관찰된다. 특히 고성과자로 분류된 기존 직원들의 데이터를 학습한 모델일수록 새로운 관점을 가진 인재보다 기존의 성공 방정식을 그대로 답습한 후보자를 선택할 확률이 통계적으로 유의미하게 높게 나타났다.

인구통계학적 편향에서 패턴 복제로의 전환

예전에는 AI 채용의 문제가 특정 집단을 배제하는 차별의 관점에서 다뤄졌다. 여성이나 소수 인종의 키워드를 필터링하는 식의 명시적 혹은 암묵적 편향이 주된 논의 대상이었다. 이제는 차별의 양상이 동질성 선호(자신과 비슷한 특성을 가진 사람에게 끌리는 현상)라는 더 정교한 형태로 진화했다. AI는 특정 집단을 싫어하는 것이 아니라 자신이 정의한 정답지에 가장 가까운 패턴을 가진 사람만을 정답으로 처리한다. 이는 결과적으로 조직 내의 다양성을 파괴하고 동질적인 집단만을 양산하는 피드백 루프를 형성한다. 개발자가 구현한 랭킹 알고리즘이 단순한 최적화 도구가 아니라 조직의 문화적 고착화를 가속하는 장치로 작동하게 되는 지점이다.

개발팀이 이 문제를 해결하기 위해 코드에 반영해야 할 변화는 명확하다. 단순히 점수가 높은 순으로 정렬하는 `sort(score)` 방식에서 벗어나 다양성 제약 조건(Diversity Constraints: 결과 집합 내에 서로 다른 특성을 가진 샘플이 일정 비율 이상 포함되도록 강제하는 규칙)을 추가한 재랭킹 로직을 도입해야 한다. 또한 모델이 왜 이 후보자를 선택했는지 설명 가능한 AI(XAI: AI가 내린 결정의 근거를 인간이 이해할 수 있게 제시하는 기술) 기법을 적용하여 특정 키워드에 과도하게 가중치가 부여되지 않았는지 상시 모니터링하는 감사 파이프라인을 구축하는 것이 제안된다. 이러한 장치가 없다면 AI 채용 도구는 효율적인 필터가 아니라 조직의 혁신 가능성을 제거하는 필터가 될 가능성이 크다.