매일 업무용 도구로 Google의 AI를 사용하는 개발자들과 일반 사용자들은 이제 이 기술이 국가 안보라는 이름으로 어디까지 확장될 수 있는지 목격하고 있다. 최근 Google 내부에서조차 자사 AI 기술이 비인도적인 방식으로 활용될 것을 우려해 국방부와의 협력을 중단하라는 목소리가 터져 나왔으나, 실제 현장에서는 정반대의 움직임이 포착되었다.
국방부와 Google의 기밀 계약 체결
Google은 최근 미 국방부(Department of Defense, 미국 국가 안보를 담당하는 정부 기관)와 자사의 AI 모델을 모든 합법적인 정부 목적에 사용할 수 있도록 허용하는 기밀 계약을 체결했다. 이번 협약은 Google 직원들이 CEO 순다르 피차이에게 국방부와의 AI 협력을 중단하라고 요구한 지 하루도 채 지나지 않아 공개되었다. 이 계약은 기존 정부 사업 계약의 수정안 형태로 진행되었으며, Google은 국가 안보를 지원하는 AI 서비스 및 인프라를 제공하는 기술 기업 컨소시엄의 일원이 되었다고 공식 입장을 밝혔다.
기존 기업들과의 비교 및 제약 조건
예전에는 OpenAI나 xAI(일론 머스크가 설립한 AI 연구 기업)와 같은 주요 AI 기업들만이 미 정부와 기밀 계약을 맺어왔으나, 이제 Google이 그 대열에 합류했다. 반면 Anthropic(안전한 AI 개발을 목표로 하는 기업)은 국방부의 요구를 거부한 사례로 주목받는다. Anthropic은 자사 AI 모델에서 무기 및 감시 관련 안전 장치를 제거하라는 국방부의 요구를 거절했다는 이유로 국방부의 블랙리스트에 올랐다. Google의 경우, 계약서상 국내 대규모 감시나 인간의 적절한 감독 없는 자율 무기 사용은 지양한다는 원칙을 명시했으나, 실질적인 구속력은 의문이다. 계약 조항에 따르면 Google은 국방부의 합법적인 운영 결정에 대해 거부권을 행사할 권한이 없으며, 정부의 요청이 있을 경우 AI 안전 설정과 필터를 조정하는 작업에 협조해야 한다.
결과적으로 이번 계약은 기술 기업이 자사 AI의 윤리적 가이드라인을 설정하더라도, 국가 안보라는 명분 아래 정부의 운영 통제권이 우선시되는 현실을 명확히 보여준다.




