"Everything Everywhere All At Once."
이 영화의 제작 과정에는 Runway(AI 기반 비디오 생성 도구)의 기술이 사용되었다. 영화 제작자를 돕는 도구로 시작한 이 기업은 이제 더 큰 목표를 설정했다. 단순한 영상 제작을 넘어 세상의 물리적 작동 원리를 학습하는 지능을 구축하려는 시도다.
Runway의 성장 지표와 기술 현황
Runway는 2018년 설립되어 최신 모델인 Gen-4.5(텍스트를 영상으로 바꾸는 생성 AI)를 통해 인지도를 쌓았다. 현재 기업 가치는 53억 달러로 평가받으며, 2026년 2분기에는 연간 반복 매출(ARR, 매년 고정적으로 발생하는 매출) 4,000만 달러를 추가했다. Lionsgate(글로벌 영화 제작사)와 AMC Networks(미국 케이블 TV 네트워크) 같은 주요 미디어 기업과 파트너십을 체결한 상태다. 조직 규모는 뉴욕, 런던, 샌프란시스코, 시애틀, 텔아비브, 도쿄에 걸쳐 총 155명의 인력으로 구성되어 있다.
창업 멤버들의 배경은 전형적인 실리콘밸리 경로와 다르다. 아나스타시스 게르마니디스(신경과학 및 영화 전공), 크리스토발 발렌주엘라(경제학 및 영화 전공), 알레한드로 마타말라-오르티즈(광고 및 디자인 전공)는 뉴욕대학교 ITP(Interactive Communications Program, 엔지니어를 위한 예술 학교로 불리는 대학원 과정)에서 만났다. 이들은 처음에 AI를 통해 누구나 영화 제작자가 될 수 있게 하겠다는 미션으로 시작했다. 이후 누구나 훌륭한 영화 제작자가 되게 하겠다는 방향으로 진화했으며, 현재는 모델이 세상의 작동 방식을 이해하게 만드는 단계에 진입했다.
텍스트 지능에서 월드 모델로의 전환
예전에는 AI 지능의 핵심이 언어에 있다고 믿어 OpenAI의 ChatGPT나 Anthropic의 Claude 같은 대규모 언어 모델(LLM, 방대한 텍스트 데이터를 학습한 AI)이 주류였다. 반면 Runway는 텍스트가 아닌 비디오와 월드 모델(World Model, 환경을 시뮬레이션해 행동을 예측하는 AI 시스템)에서 다음 단계의 지능이 나온다고 판단한다. 주목할 점은 인간이 설명한 텍스트 데이터가 아니라 실제 세상의 관찰 데이터(Observational Data)를 직접 학습시킨다는 점이다.
언어 모델은 인터넷의 메시지 보드, 소셜 미디어, 교과서 등 기존의 인간 지식을 증류하여 학습한다. 그러나 게르마니디스 공동 CEO는 이러한 방식이 인간의 현실 이해라는 틀에 갇혀 있으며 편향된 데이터일 가능성이 높다고 분석한다. 반면 비디오 기반의 학습은 세상이 실제로 어떻게 움직이는지를 직접 배우는 과정이다. 이는 Luma(AI 비디오 생성 스타트업)나 World Labs(물리 기반 월드 모델 개발사), 그리고 Google의 Genie(상호작용 가능한 가상 환경 생성 AI)가 추구하는 방향과 궤를 같이한다.
과학적 인프라로서의 확장성
개발자가 체감하는 변화는 영상 편집 도구의 성능 향상에 그치지 않는다. Runway는 지난해 로보틱스(Robotics, 로봇 공학) 부문을 신설해 실제 환경 테스트와 배포를 진행 중이다. 월드 모델이 정교해지면 신약 개발이나 기후 모델링 같은 복잡한 과학적 난제를 해결하는 디지털 트윈(Digital Twin, 현실 세계를 가상 공간에 그대로 복제한 모델)으로 활용될 수 있다. 결과적으로 인간 과학자가 실험 결과를 기다리는 시간을 압축해 우주에 대한 이해와 문제 해결 속도를 가속하는 인프라가 된다는 계산이다.
최종적인 지향점은 텍스트, 비디오, 음성 및 기타 센서 데이터를 하나의 모델로 통합 학습시키는 것이다. 게르마니디스는 이러한 복합 학습의 누적 효과가 핵심이라고 본다. 그는 충분한 시간과 자원이 확보된다면 생물학적 월드 모델을 구축하고 항노화 연구(Anti-aging research)에 적용하는 것을 장기적인 목표로 설정했다. 이는 단순한 콘텐츠 생성 도구를 넘어 인류의 가장 어려운 문제를 해결하는 과학적 도구로 진화하겠다는 전략이다.
언어라는 필터를 제거하고 물리 세계를 직접 학습하는 모델이 승리한다면 AI의 정의는 다시 쓰일 것이다.




