뉴스피드 큐레이션 SNS 대시보드 저널

메타, ‘에이전틱 AI’ 인프라에 CPU 대규모 확장… AWS, 수천만 개 '그라비톤 칩' 도입 - 인공지능신문

[AI] agentic ai | | 🖥️ 하드웨어
#ai 에이전트 #aws #기타 ai #위로보틱스 #취약점/보안 #openai #피지컬 ai #하드웨어/반도체

요약

메타는 AWS와 협력해 자체 AI 인프라에 수천만 개의 AWS 그라비톤 CPU 코어를 도입하여 차세대 인공지능 시스템을 위한 연산 기반을 확보했습니다. 이는 스스로 사고하고 실행하는 에이전틱 AI의 부상에 따라 기존 GPU 외에도 CPU 기반 연산 수요가 급증했기 때문입니다. 특히 높은 데이터 처리 속도와 대역폭을 갖춘 그라비톤5 칩을 통해 대규모 AI 작업을 효율적으로 처리할 수 있게 됩니다.

왜 중요한가

개발자 관점

검토중입니다

연구자 관점

검토중입니다

비즈니스 관점

검토중입니다

본문

그라비톤5 192코어 기반 저지연·고대역폭 구현… 에이전틱 AI 인프라 핵심으로 부상 메타(Meta)는 24일(현지시간) 아마존 웹 서비스(AWS)와 협력해 자사 AI 인프라에 수천만 개 규모의 ‘그라비톤(Graviton)’ CPU 코어를 도입한다고 발표했다. 이를 통해 메타는 세계 최대 수준의 AWS 그라비톤 고객 중 하나로 올라서게 되며, 차세대 인공지능 시스템을 위한 핵심 연산 기반을 확보하게 된다. 그라비톤 코어는 CPU 내부에서 실제 연산을 수행하는 핵심 단위로, 복잡한 AI 작업을 처리하는 데 필수적인 요소다. 메타는 초기 도입 단계에서 수천만 개 코어를 배치하고, 향후 AI 역량 확장에 따라 추가 확대도 가능하도록 설계했다. 메타가 이번 투자를 단행한 배경에는 ‘에이전틱 AI(agentic AI)’의 부상이 있다. 에이전틱 AI는 단순 응답을 넘어 스스로 사고하고 계획하며 복잡한 작업을 수행하는 자율형 AI 시스템을 의미한다. 이러한 시스템은 지속적인 추론과 실행을 요구하기 때문에, 기존 GPU 중심 구조뿐 아니라 CPU 기반 연산 수요가 크게 증가하는 특징을 가진다. AWS의 최신 칩인 그라비톤5(Graviton5)는 이러한 요구에 맞춰 설계된 프로세서로, 높은 데이터 처리 속도와 대역폭을 제공해 대규모 AI 작업을 안정적으로 처리할 수 있도록 지원한다. 그래비톤5는 192개의 코어와 이전 세대 대비 5배 확장된 캐시를 탑재하여 코어 간 통신 지연 시간을 최대 33%까지 획기적으로 단축했다. 이러한 기술적 진보는 데이터 처리 속도의 가속화와 대역폭 향상으로 이어지며, 특히 지속적인 추론과 복잡한 다단계 작업을 수행해야 하는 현대 인공지능 시스템의 핵심 요구사항을 충족한다. 그래비톤은 고성능·고가용성 및 강력한 보안을 보장하는 전용 하드웨어 및 소프트웨어 결합 아키텍처인 AWS 니트로(Nitro) 시스템을 기반으로 구축되었다. 니트로 시스템은 하드웨어 자원에 직접 접근할 수 있는 베어메탈(Bare-metal) 인스턴스를 지원하는 동시에, 메타(Meta)와 같은 기업이 성능 저하 없이 자체 가상 머신을 안정적으로 구동할 수 있도록 엘라스틱 네트워크 어댑터(ENA)와 아마존 엘라스틱 블록 스토어(Amazon EBS) 등 표준화된 장치 환경을 제공한다. 또한, 그래비톤5 인스턴스 제품군은 엘라스틱 패브릭 어댑터(Elastic Fabric Adapter, EFA)를 지원하여 인스턴스 간 저지연·고대역폭 통신을 구현한다. 이는 대규모 작업을 수많은 프로세서에 분산하여 유기적으로 처리해야 하는 메타의 '에이전트형 AI' 워크로드 운영에 있어 필수적인 인프라 요소로 작용한다. 나피아 부샤라(Nafea Bshara) AWS 부사장은 이번 협력의 의미를 단순한 하드웨어 공급을 넘어선 ‘AI 인프라 통합’으로 설명했다. 그는 “이번 협력은 단순히 칩을 제공하는 것이 아니라, 데이터와 추론 서비스를 포함한 AWS 전체 AI 스택과 결합해 차세대 에이전틱 AI를 구현하는 기반을 제공하는 것”이라고 강조했다. 이어 “수천만 개 그라비톤 코어 배치는 맞춤형 반도체와 클라우드 AI 플랫폼이 결합될 때 어떤 시너지가 발생하는지를 보여주는 사례”라고 평가했다. 메타는 이번 협력이 자사의 인프라 전략 핵심 원칙인 ‘포트폴리오 접근 방식’을 반영한 것이라고 밝혔다. 이는 특정 칩이나 아키텍처에 의존하지 않고, 다양한 컴퓨팅 자원을 조합해 최적의 성능을 확보하는 전략이다. 산토시 자나르단(Santosh Janardhan) 메타 인프라 총괄은 “AI 인프라를 확장하는 과정에서 컴퓨팅 자원의 다양화는 필수적인 전략 요소”라며 “AWS와의 협력을 통해 CPU 집약적 워크로드를 보다 효율적으로 처리할 수 있게 됐다”고 설명했다. 메타는 자체 데이터센터와 맞춤형 하드웨어 개발을 지속하는 동시에, AWS와 같은 클라우드 파트너와 협력해 각 워크로드에 최적화된 인프라를 구축하고 있다. 메타는 향후 자사 AI 시스템과 에이전틱 AI 서비스를 수십억 사용자에게 제공하는 것을 목표로 하고 있으며, 이를 위해 유연하고 확장 가능한 인프라 구축이 핵심 과제로 떠오르고 있다. 이번 협력은 단순한 기술 도입을 넘어, AI 시대의 핵심 경쟁 요소가 ‘모델’에서 ‘인프라’로 이동하고 있음을 보여주는 사례로 평가된다. 특히 CPU와 GPU, 맞춤형 칩을 결합한 하이브리드 컴퓨팅 전략이 향후 AI 산업의 표준으로 자리 잡을 가능성이 커지고 있다. 메타와 AWS의 이번 협력은 AI 인프라가 단순히 연산 능력을 높이는 수준을 넘어 속도, 효율성, 확장성을 동시에 충족해야 하는 새로운 단계에 진입했음을 보여준다. 특히 에이전틱 AI와 같은 고도화된 시스템이 확산되면서, 다양한 연산 구조를 유연하게 결합하는 ‘멀티 아키텍처 전략’이 기업 경쟁력의 핵심으로 부상하고 있다.

관련 저널 읽기

전체 보기 →