수요일 오전, 뉴욕 나스닥 거래소.
전광판의 Cerebras 주가가 공모가 185달러를 넘어 350달러까지 치솟는다. 투자자들이 실시간으로 변하는 시가총액 숫자를 지켜본다.
이 장면 뒤에는 기존 GPU(그래픽 처리 장치)와는 완전히 다른 설계 철학이 있다.
WSE-3의 하드웨어 제원과 상장 데이터
Cerebras는 3,000만 주를 주당 185달러에 매각해 55억 5,000만 달러를 조달했다. 이는 2019년 우버 상장 이후 미국 테크 기업 중 최대 규모다. 초기 희망 공모가는 115달러에서 125달러 사이였으나, 수요가 몰리며 150달러에서 160달러로 상향되었고 최종적으로는 이 범위를 다시 초과해 결정되었다.
WSE-3(웨이퍼 전체를 하나의 칩으로 만든 프로세서)는 4조 개의 트랜지스터와 90만 개의 컴퓨팅 코어, 44GB의 온칩 메모리를 탑재했다. 2025년 매출은 전년 대비 76% 증가한 5억 1,000만 달러를 기록했다. 회사는 이번 상장으로 확보한 자본을 클라우드 인프라 확장에 투입해 추론 속도를 높이는 전략을 취하고 있다.
GPU 대비 대역폭 우위와 기술적 차별점
엔비디아의 B200(최신 AI 가속기 칩)과 비교하면 WSE-3의 크기는 58배 더 크다. 특히 메모리 대역폭은 B200 패키지보다 2,625배 넓어, 추론 속도가 GPU 기반 솔루션보다 최대 15배 빠르다는 점이 핵심이다. 이는 대규모 언어 모델이 텍스트를 생성할 때 토큰(텍스트의 최소 단위)을 하나씩 예측하며 전체 가중치를 메모리에서 컴퓨팅 유닛으로 이동시켜야 하는 순차적 특성 때문이다.
과거 반도체 산업에서 웨이퍼 스케일 통합은 수차례 시도되었으나 모두 실패했다. Cerebras는 이를 해결하기 위해 두 가지 기술을 도입했다. 하나는 제조 과정에서 독립적인 다이(반도체 칩의 최소 단위)를 웨이퍼 수준에서 연결하는 독자적인 멀티 다이 인터커넥트(칩 간 연결 기술)이며, 다른 하나는 제조 결함이 있는 부분을 우회하여 경로를 설정하는 결함 허용 아키텍처(오류 발생 시 대체 경로를 찾는 설계)다.
하드웨어 판매에서 클라우드 서비스로의 전환
예전에는 수냉식 AI 슈퍼컴퓨터를 고객사 시설에 직접 설치하는 하드웨어 판매에 집중했다. 2025년 기준 하드웨어 매출은 3억 5,800만 달러를 기록했다. 반면 2024년 8월부터는 클라우드 기반 추론 서비스로 사업 방향을 틀었다. 2025년 서비스 매출은 1억 5,160만 달러로 전년 7,830만 달러 대비 94% 성장했다.
OpenAI 및 AWS(아마존 웹 서비스, 클라우드 컴퓨팅 플랫폼)와의 파트너십이 매출 구조의 변화를 이끌었다. 개발자가 API(응용 프로그램 인터페이스)를 통해 추론 기능을 소비하는 방식이 시장의 선호도가 높기 때문이다. 다만 클라우드 인프라 구축을 위한 데이터 센터 임차 및 시스템 배치 비용이 선제적으로 투입되면서 매출총이익률은 2024년 42.3%에서 2025년 39%로 하락했다.
거대한 칩 하나가 수천 개의 GPU 클러스터를 대체하는 효율성 전쟁이 시작되었다.




