AWS의 맞춤형 칩 전략, 엔비디아의 AI 시장 점유율 감소에 기여

[email protected]





아마존 웹 서비스(AWS)가 자사의 그라비톤4 칩의 업데이트를 발표할 예정이다. 이번 업데이트는 초당 600기가바이트의 네트워크 대역폭을 지원하며, 이는 공공 클라우드에서 제공하는 최고 속도로 평가받고 있다. AWS는 AI 교육 비용을 절감하고, 엔비디아의 고가의 그래픽 처리 장치(GPU)에 대한 대안을 제공하기 위해 노력하고 있다.

AWS의 재사용 가능한 공공 클라우드 칩, 그라비톤4는 텍사스 오스틴에 위치한 아마존의 아나푸르나 연구소에서 개발되었으며, 이번 성과는 아마존의 맞춤형 칩 전략의 일환으로 인텔과 AMD 같은 전통적인 반도체 제조업체와의 경쟁을 강화하는 중요한 단계가 되고 있다. 그러나 진정한 경쟁 상대는 AI 인프라 분야의 선두주자인 엔비디아다.

AWS는 지난해 12월의 re:Invent 2024 회의에서 스타트업 앤트로픽을 위해 구축된 AI 슈퍼컴퓨터 프로젝트 레이니어(Project Rainier)를 발표했다. AWS는 앤트로픽에 무려 80억 달러를 투자하고 있으며, 앤트로픽의 클로드 오퍼스 4(Claude Opus 4) AI 모델은 AWS의 트레니움2 GPU에서 교육받고 있다. 프로젝트 레이니어는 이 칩들을 이용해 50만 대 이상의 AI 장비를 운영하고 있는데, 이와 같은 칩 주문은 과거에는 주로 엔비디아에 의해 수요가 충족되던 부분이다.

AWS 고객 및 프로젝트 엔지니어링 수석 이사인 가디 훗(Gadi Hutt)는 엔비디아의 블랙웰(Blackwell) 칩이 트레니움2보다 성능이 뛰어나기는 하지만, AWS의 칩이 더 나은 비용 성능을 제공한다고 강조했다. 그는 “트레니움3이 올해 출시될 예정이며, 이는 트레니움2의 성능을 두 배로 향상시키고 추가로 에너지를 50% 절감할 것”이라고 말했다.

AWS의 아나푸르나 연구소의 공학 이사인 라미 시노(Rami Sinno)에 따르면, 이러한 칩에 대한 수요는 공급을 초과하고 있다. “우리의 공급량은 매우 크지만, 우리가 구축하는 모든 서비스에는 고객이 붙어 있다”고 전했다.

그라비톤4의 업데이트가 다가오고, 프로젝트 레이니어의 트레니움 칩이 시장에 공급됨에 따라 아마존은 AI 인프라스트럭처 전반에 걸친 제어를 목표로 하고 있음을 보여준다. 점점 더 많은 주요 AI 모델이 엔비디아 하드웨어가 아닌 장비에서 성공적으로 훈련되고 있는 만큼, AWS가 이 칩 대기업과 경쟁할 수 있는지는 물론이고 얼마나 많은 시장 점유율을 차지할 수 있을지가 주목받고 있다.

AWS의 그라비톤4 업데이트의 출시 일정은 6월 말에 공개될 예정이며, 이로 인해 AI 인프라 시장에서 아마존의 위치가 더욱 확고해질 전망이다.

Leave a Comment