새로운 모델의 API 문서가 업데이트될 때마다 개발자들은 이번에는 어떤 제약 사항이 추가되었을지, 혹은 어떤 기능이 제한되었을지 살핀다. 특정 프롬프트가 갑자기 거부되거나 응답 속도가 변하는 지점에서 우리는 AI 모델의 내부 정책이 어떻게 작동하는지 간접적으로 체감한다. 이는 단순한 업데이트가 아니라 모델을 만드는 조직이 세상을 바라보는 관점과 안전에 대한 기준이 코드에 반영된 결과다.

AGI 구현을 위한 5대 운영 원칙과 인프라 전략

OpenAI는 AGI(인공 일반 지능, 인간 수준의 지적 능력을 갖춘 AI)가 인류 전체에 혜택을 주어야 한다는 목표 아래 다섯 가지 원칙을 제시했다. 첫 번째는 민주화로, 소수 기업이 권력을 독점하는 것을 막고 민주적 절차를 통해 주요 의사결정을 내리는 구조를 지향한다. 두 번째는 권한 부여이며, 사용자가 더 가치 있는 과업을 수행할 수 있도록 자율성을 보장하되 치명적인 위해를 최소화하는 방향으로 제품을 설계한다. 세 번째는 보편적 번영이다. 이를 위해 OpenAI는 막대한 컴퓨팅 자원을 확보하고 수직 계열화(설계부터 생산까지 전 과정을 통합하는 방식)를 통해 인프라 비용을 획기적으로 낮추는 전략을 취한다. 매출 규모에 비해 과도해 보이는 컴퓨팅 자원 구매와 전 세계적인 데이터센터 구축은 이러한 보편적 번영을 위한 기반 작업으로 관찰된다.

네 번째 원칙은 회복 탄력성이다. AI가 초래할 수 있는 새로운 위험, 예를 들어 새로운 병원균 생성을 돕는 모델의 위험성을 해결하기 위해 정부 및 외부 생태계와 협력한다. 특히 사이버 보안 능력이 향상됨에 따라 이를 오픈소스 소프트웨어와 핵심 인프라를 보호하는 데 활용하고, 모든 사용자가 더 안전한 소프트웨어를 만들 수 있도록 모델을 훈련시킨다. 마지막 다섯 번째는 적응성이다. 예측 불가능한 미래에 대응하기 위해 학습 내용에 따라 기존 입장을 수정하며, 운영 원칙이 변할 때 그 이유와 과정을 투명하게 공개하겠다고 밝혔다.

반복적 배포로 전환된 안전 관리 체계

과거 GPT-2(OpenAI의 초기 대규모 언어 모델)의 가중치(모델의 학습된 파라미터 값)를 공개하는 것에 대해 사회적 영향력을 우려해 망설였던 시기가 있었다. 하지만 이제는 반복적 배포(기능을 단계적으로 출시해 피드백을 받는 방식) 전략으로 방향을 틀었다. 이는 기술을 진공 상태에서 완성해 한 번에 내놓는 것이 아니라, 사회가 각 단계의 AI 능력에 적응하고 통합하며 함께 최선의 경로를 찾아가는 과정이다. 기술과 사회의 공동 진화에는 시간이 필요하다는 판단이 깔려 있다.

개발자가 바로 체감하는 변화는 권한 부여와 회복 탄력성 사이의 트레이드오프(하나를 얻기 위해 다른 하나를 포기하는 관계)에서 나타난다. 보편적 번영을 위해 사용자의 자율성을 최대한 보장하려 하지만, 심각한 정렬(AI의 목표를 인간의 의도와 일치시키는 기술) 문제나 안전 문제가 발견되면 일시적으로 권한을 제한하고 제약 사항을 강화하는 시기가 올 수 있다. 이는 단순히 필터를 추가하는 수준이 아니라, 인프라 수준에서 비용을 낮추고 접근성을 높이는 동시에 사회적 안전망을 구축하는 거대한 설계 변경을 의미한다.

결국 AI 랩의 정체성은 폐쇄적인 연구소에서 글로벌 공공 인프라 운영사로 이동하고 있다.