메타·아마존 AWS, 그래비톤 AI 칩 멀티빌리언달러 협약 체결… 엔비디아 의존도 낮춘다 - AI 매터스
[AI] 메타
|
|
🤖 AI 모델
#하드웨어/반도체
#ai 모델
#ai 모델 출시
#gpt-5
#gpt-5.4 나노
#gpt-5.4 미니
#openai
#소형 ai 모델
원문 출처: [AI] 메타 · Genesis Park에서 요약 및 분석
요약
오픈AI가 고성능 소형 AI 모델 2종을 전격 공개했다. 실제 서비스 환경에서 요구되는 ‘빠른 속도, 높은 정확도, 낮은 비용’이라는 세가지 과제를 동시에 해결하는 데 초점을 맞췄다.오픈AI는 17일(현지시간) 'GPT-5.4 미니(min)'와 'GPT-5.4 나노(nano)'를 공개했다. GPT-5.4 미니는 코딩, 추론, 도구 활용, 멀티모달 이해 등 핵심 영역에서 상위 모델 'GPT-5.4'에 근접한 성능을 기록했다.대표적으로 실제 코드 수정 능력을 평가하는 'SWE-벤치 프로'에서 54.4%를 기록, GPT-5.4(57.7%
본문
메타(Meta)와 아마존웹서비스(AWS)가 차세대 인공지능(AI) 인프라 구축을 위해 멀티빌리언달러 규모의 칩 공급 계약을 맺었다. 인덱스박스(IndexBox)에 따르면 메타는 AWS의 자체 설계 프로세서인 그래비톤(Graviton) 칩을 도입해 자사의 AI 시스템 일부를 운영할 계획이며, 이 발표 직후 4월 26일(현지 시간) 아마존 주가는 오후 거래에서 3.5% 가까이 급등했다. 이번 협약은 단순한 부품 구매를 넘어 AI 칩 시장의 권력 지형을 흔드는 신호로 해석된다. 그동안 빅테크 기업의 AI 학습·추론 인프라는 사실상 엔비디아(NVIDIA) 그래픽처리장치(GPU)에 절대적으로 의존해 왔다. 그러나 엔비디아 GPU는 공급 부족과 가격 부담이 만성적이고, 아마존·구글·메타 같은 하이퍼스케일러는 자체 설계 칩 또는 다른 사업자의 맞춤형 실리콘으로 위험을 분산하려는 움직임을 가속하고 있다. 그래비톤은 ARM 아키텍처 기반의 서버용 중앙처리장치(CPU)로, AWS가 클라우드 비용 효율을 내세워 키워온 라인업이다. 메타가 이를 자사 데이터센터의 AI 워크로드에 결합한다는 것은, 학습은 GPU·자체 가속기에 맡기되 추론(inference)과 보조 연산을 그래비톤으로 떠받쳐 단가를 낮추겠다는 전략으로 풀이된다. 메타는 올해 자본지출(CAPEX)을 1,150억~1,350억 달러까지 늘릴 것이라고 밝힌 상태로, 이 막대한 투자가 ROI를 내려면 칩 단가와 전력 단가를 동시에 떨어뜨리는 구조가 필수적이다. 아마존 입장에서도 그래비톤이 사내 워크로드를 넘어 외부 빅테크의 AI 시스템에 들어간다는 사실은 중요한 의미를 갖는다. AWS는 자체 AI 가속기 트레이니엄(Trainium)·인퍼런시아(Inferentia)에 이어 그래비톤까지 메타라는 대형 외부 고객을 확보함으로써, 엔비디아 중심 구조를 흔들 카드를 더 늘렸다. 인덱스박스는 이번 거래가 향후 다른 하이퍼스케일러 간 ‘AI 칩 교차 공급’ 계약의 신호탄이 될 수 있다고 분석했다. 업계는 이번 발표가 엔비디아의 지배력에 즉각적인 타격이 되지는 않더라도, 추론 시장에서 가격 경쟁이 본격화되는 분기점이 될 것이라고 본다. 챗GPT(ChatGPT)·제미나이(Gemini)·클로드(Claude) 같은 거대 모델이 매일 쏟아내는 수십억 건의 추론 트래픽이 모두 GPU에서 ARM CPU나 맞춤형 가속기로 이동하면, 빅테크의 AI 운영 원가 구조 자체가 재편될 수 있다. 자세한 내용은 인덱스박스(IndexBox)에서 확인할 수 있다. 이미지 출처: 이디오그램 생성
Genesis Park 편집팀이 AI를 활용하여 작성한 분석입니다. 원문은 출처 링크를 통해 확인할 수 있습니다.
공유