매일 아침 스마트폰을 켜고 인공지능 서비스를 사용하는 우리에게, 개발사들은 종종 섬뜩한 경고를 던진다. 우리가 만든 기술이 너무 강력해서 세상에 공개하는 것조차 두렵다는 식의 이야기다. 마치 판도라의 상자를 열어놓고는, 그 안의 재앙이 너무 무서우니 자기들만 믿고 기다리라는 태도와 같다. 이런 식의 공포 마케팅은 최근 기술 업계에서 흔히 볼 수 있는 풍경이 되었다.
Anthropic의 Claude Mythos와 보안 경고
Anthropic(인공지능 안전과 연구를 강조하는 AI 기업)은 최근 자사의 새로운 모델인 Claude Mythos(사이버 보안 취약점을 탐지하는 AI 모델)를 발표하며 그 위험성을 강조했다. Anthropic은 이 모델이 인간 전문가를 뛰어넘는 수준으로 사이버 보안 취약점을 찾아낼 수 있다고 밝혔다. 이 기술이 악의적인 손에 들어갈 경우 경제, 공공 안전, 국가 안보에 치명적인 결과를 초래할 수 있다는 것이 이들의 주장이다. Anthropic은 이 문제를 해결하기 위해 40개 이상의 기업 및 단체와 협력하여 취약점을 보완하겠다는 계획을 내놓았다.
과거의 GPT-2 사례와 달라진 대응 방식
예전에는 기술의 위험성을 경고하는 방식이 지금처럼 노골적이지 않았다. 2019년 OpenAI(인공지능 연구 및 배포 기업)가 GPT-2(텍스트 생성 모델)를 발표했을 때, 당시 임원이었던 Dario Amodei는 기술의 악용 가능성을 이유로 공개를 주저했다. 하지만 불과 몇 달 뒤 OpenAI는 해당 모델을 대중에게 공개했다. 당시 OpenAI의 CEO Sam Altman은 기술의 불확실성을 수용해야 한다며 과거의 우려가 기우였음을 인정했다. 하지만 현재는 기술의 위험성을 강조하는 것이 업계의 표준적인 자세로 자리 잡았다. 2023년에는 OpenAI, Anthropic, Google DeepMind(구글의 인공지능 연구소)의 수장들이 AI로 인한 인류 멸종 위험을 핵전쟁 수준의 우선순위로 다뤄야 한다는 성명에 서명하기도 했다.
공포 마케팅의 이면과 전문가들의 시각
개발자가 바로 체감하는 변화는 기술의 실질적인 영향력보다 공포를 통한 통제권 강화에 있다. Shannon Vallor 에든버러 대학교 교수는 이러한 기술을 초자연적인 위험으로 묘사하면 대중은 무력감을 느끼게 되며, 결국 기업만이 유일한 해결사라는 인식을 갖게 된다고 지적한다. Emily M Bender 워싱턴 대학교 교수는 이를 두고 실질적인 환경 파괴나 노동 착취와 같은 당면한 문제로부터 시선을 돌리려는 전략이라고 비판한다. 실제로 Elon Musk가 이끄는 xAI(인공지능 스타트업)는 AI 개발을 6개월간 멈추자고 주장한 지 6개월도 채 되지 않아 설립되었다. Heidy Khlaaf AI Now Institute(AI의 사회적 영향을 연구하는 기관) 수석 과학자 역시 Anthropic의 주장에 의문을 제기하며, 실제 코드 분석 도구의 작동 원리를 고려할 때 이러한 과장된 위험론은 기술적 근거가 부족하다고 평가한다.
결국 AI 기업들이 쏟아내는 종말론적 경고는 기술의 통제권을 독점하고 규제를 회피하기 위한 고도의 전략적 수사일 가능성이 높다.




