이번 주 개발자 커뮤니티에서 가장 뜨거운 화제는 메타와 AWS의 칩 딜이다. 메타가 AWS의 자체 개발 CPU인 그라비톤(Graviton, ARM 기반 중앙처리장치) 수백만 개를 AI 인프라에 도입하기로 했다. GPU가 아닌 CPU로 AI 워크로드를 처리하는 대규모 계약이라는 점에서 업계의 시선이 집중되고 있다.

AWS, 12월 그라비톤4 공개…메타가 수백만 개 도입 계약

AWS는 지난 12월 AI 추론에 최적화된 4세대 그라비톤 칩을 공개했다. 메타는 이 칩을 수백만 개 단위로 도입하는 계약을 체결했으며, AWS는 지난주 금요일 이를 공식 발표했다. 그라비톤4는 ARM 아키텍처 기반 CPU로, GPU(Graphics Processing Unit, 그래픽 처리 장치)와 달리 범용 연산을 담당한다. GPU가 대규모 모델 학습에 주로 쓰이는 반면, 학습이 끝난 모델 위에서 동작하는 AI 에이전트는 실시간 추론, 코드 작성, 검색, 다단계 작업 조정 등 CPU 친화적인 연산을 대량으로 필요로 한다. AWS는 그라비톤4가 이런 AI 에이전트 워크로드를 염두에 두고 설계되었다고 밝혔다.

예전에는 GPU 독점 체제…이제는 CPU가 AI 추론 시장을 흔든다

예전에는 AI 워크로드 하면 GPU가 유일한 선택지였다. 특히 엔비디아의 H100·B200 GPU가 학습과 추론을 모두 장악했다. 하지만 이제 상황이 달라졌다. AI 에이전트가 늘어나면서 추론 단계에서 CPU가 더 효율적인 경우가 많아졌다. 엔비디아도 이 흐름을 감지하고 ARM 기반 베라(Vera) CPU를 출시했지만, AWS는 자체 클라우드에서만 칩을 제공하는 반면 엔비디아는 기업과 클라우드 제공자(자사 포함)에 칩을 직접 판매한다. AWS CEO 앤디 재시(Andy Jassy)는 지난주 주주 서한에서 "기업이 AI에서 더 나은 가격 대비 성능을 원한다"며 엔비디아와 인텔을 겨냥한 발언을 했다.

개발자가 바로 체감하는 변화는 칩 선택지의 다각화다

이번 계약으로 메타는 지난해 8월 구글 클라우드와 체결한 6년 100억 달러 규모 계약에서 다시 AWS로 클라우드 지출을 돌릴 가능성이 커졌다. 메타는 전통적으로 AWS 고객이었으나 구글과도 대규모 계약을 맺은 상태였다. AWS는 이 발표를 구글 클라우드 넥스트(Google Cloud Next) 컨퍼런스 종료 직후에 터뜨리며 경쟁사에 대한 압박을 강화했다. 한편 AWS는 자체 AI GPU인 트레이니엄(Trainium)도 보유하고 있지만, 지난달 앤트로픽(Anthropic)이 10년간 1000억 달러 규모로 트레이니엄을 선점하는 계약을 체결하면서 CPU 쪽으로 눈을 돌릴 수밖에 없었다. 개발자 입장에서는 이제 AI 추론 인프라를 구성할 때 GPU뿐 아니라 ARM CPU도 적극 고려해야 하는 시점이 왔다.

메타의 선택이 CPU 기반 AI 추론의 본격적인 신호탄이 될지, 단기적인 전략적 딜에 그칠지가 업계의 다음 관전 포인트다.