브로드컴·메타, 탈 엔비디아 속도…맞춤형 AI 인프라 협력 확대 - 전자신문

[AI] 메타 | | {'이벤트': '📰', '머신러닝/연구': '📰', '하드웨어/반도체': '📰', '취약점/보안': '📰', '기타 AI': '📰', 'AI 딜': '📰', 'AI 모델': '📰', 'AI 서비스': '📰', 'discount': '📰', 'news': '📰', 'review': '📰', 'tip': '📰'} 하드웨어/반도체
#루빈 칩 #루빈칩 #심층분석 #코리아비즈니스리뷰 #코어위브 #ai 모델 #cis 벤치마크 #경기도 #머신러닝/연구 #하드웨어/반도체

요약

메타와 브로드컴은 2029년까지 맞춤형 AI 칩과 네트워크를 공동 개발하기로 협력을 연장하며, 1기가와트 이상의 전력을 사용하는 대규모 인프라 구축에 착수했습니다. 이번 협력은 엔비디아 GPU 의존도를 낮추고 MTIA 칩과 이더넷 기술을 결합해 연산 효율을 높이는 데 핵심 목표가 있습니다. 이러한 흐름은 오픈AI와 구글, 아마존 등 주요 빅테크들이 자체 AI 반도체 개발에 속도를 내면서 AI 칩 생태계가 빠르게 다변화되고 있음을 보여줍니다.

왜 중요한가

본문

브로드컴과 메타가 다년간의 맞춤형 인공지능(AI) 칩·네트워크 협력 로드맵을 구체화하며 자체 AI 인프라 확대에 나섰다. 엔비디아 그래픽처리장치(GPU) 의존도를 낮추고 연산 효율과 비용 경쟁력을 끌어올리기 위한 빅테크들의 커스텀 칩 경쟁이 본격화하는 양상이다. 메타와 브로드컴은 14일(현지시간) 맞춤형 AI 칩·네트워크 협력 기간을 2029년까지 연장하고, 메타 자체 AI 칩 '메타 훈련·추론 가속기(MTIA)'를 공동 개발·확장한다고 발표했다. 초기 투입 규모는 1기가와트(GW) 이상이다. 이는 약 75만 미국 가구의 평균 전력 수요에 해당하는 수준이다. 메타는 이를 시작으로 수 기가와트 규모까지 확대할 계획이다. 이번 메타-브로드컴 협력의 핵심은 단순한 칩 공급 계약을 넘어 칩과 네트워크를 함께 최적화하는 공동 설계 체제에 있다. 메타는 MTIA를 통해 추론과 저정밀 AI 연산에 최적화된 하드웨어를 확보하고, 브로드컴은 맞춤형 가속기 플랫폼과 함께 이더넷 네트워킹 기술로 대규모 AI 클러스터를 연결한다. 브로드컴의 이더넷 기술은 메타의 급속히 늘어나는 AI 컴퓨팅 클러스터를 묶는 역할을 맡는다. 메타는 앞서 MTIA 300을 추천·랭킹 시스템에 투입했고, 내년까지 후속 칩 3종을 추가로 선보일 계획도 공개한 바 있다. 메타는 왓츠앱·인스타그램·스레드 등 자사 서비스 전반에 생성형 AI 기능과 '개인 초지능'을 확산하는 기반으로 이번 인프라를 활용하겠다는 구상이다. 이번 파트너십 확대에 따라 호크 탄 브로드컴 최고경영자(CEO)는 메타 이사회에서 물러난다. 향후 메타의 맞춤형 실리콘 전략과 장기 인프라 투자 방향을 자문하는 역할을 맡는다. 이 같은 움직임은 메타에 국한된 흐름이 아니다. 글로벌 AI 반도체 시장 전반에서 빅테크를 중심으로 한 내재화 경쟁이 한층 거세지고 있다. 오픈AI는 브로드컴과 협력해 자체 설계 AI 가속기를 대규모로 도입하는 방안을 추진 중이다. 10기가와트(GW), 100억달러(약 14조원) 규모 인프라를 전제로 자체 AI 칩 생산에 착수했다. 내년부터 양산에 돌입해 오픈 AI 데이터센터에 투입할 계획이다. 구글과 아마존도 각각 텐서처리장치(TPU), 트레이니엄 등 자사 워크로드에 최적화한 주문형 반도체(ASIC) 개발과 생산 확대에 속도를 내고 있다. 여기에 화웨이, 알리바바 등 중국 빅테크까지 가세하면서 AI 칩 생태계는 빠르게 다변화하는 양상이다. 박유민 기자 [email protected]