구글 클라우드, 7세대 TPU '아이언우드' 공개…'사고 AI 모델 연산 수요 충족' - 전자신문
[AI] ironwood
|
|
🖥️ 하드웨어
#ai 모델
#tpu
#구글 클라우드
#반도체
#아이언우드
#하드웨어/반도체
#ai 반도체
#ai 연산
#ai 칩
원문 출처: [AI] ironwood · Genesis Park에서 요약 및 분석
요약
구글 클라우드가 복잡한 사고 AI 모델의 연산 수요를 충족하기 위해 7세대 TPU인 '아이언우드(Ironwood)'를 공개했습니다. 이번 7세대 칩은 기존 모델들을 크게 상회하는 강력한 연산 성능과 에너지 효율성을 제공하여 차세대 AI 인프라를 뒷받침할 핵심 하드웨어로 평가받고 있습니다. 이를 통해 구글은 클라우드 환경에서 구동되는 고도화된 AI 모델들의 학습 및 추론 작업을 한층 더 가속화할 계획입니다.
왜 중요한가
개발자 관점
차세대 AI 모델의 복잡한 연산 수요를 처리할 수 있는 고성능 인프라가 제공되어, 대규모 학습 및 추론 작업의 병목 현상을 해소하고 파이프라인 최적화가 가능해집니다.
연구자 관점
기존 하드웨어의 한계를 넘어선 연산 성능과 에너지 효율성을 통해, 더 방대한 파라미터와 복잡한 구조를 가진 사고 AI 모델의 실험 및 학습 가설 검증을 가속화할 수 있는 새로운 연구 환경이 조성됩니다.
비즈니스 관점
고도화된 AI 모델 구동에 필수적인 인프라 경쟁력을 확보함으로써, 막대한 연산 수요를 가진 기업 고객들을 유치하고 클라우드 시장에서의 지배력을 한층 더 강화할 수 있습니다.
관련 엔티티
구글 클라우드
TPU
아이언우드
Ironwood
본문
구글 클라우드 7세대 TPU '아이언우드(Ironwood)'. 구글 클라우드가 자체 개발한 인공지능(AI) 칩 텐서처리장치(TPU)의 7세대 버전인 '아이언우드(Ironwood)'를 공개했다. 구글 클라우드는 연례 기술 콘퍼런스 '구글 클라우드 넥스트 2025' 개막에 앞선 7일 온라인 기자간담회를 열고 새로운 제품·기능 등을 공유했다. 아민 바닷 구글 클라우드 시스템 및 클라우드 AI 부문 부사장은 이날 간담회에서 “아이언우드는 AI 스스로 인사이트를 생성하고 해석하는 '사고 모델(thinking model)'에 특화된 AI 칩”이라며 “사고 모델의 폭발적인 연산량에 대응하기 위해 연산 성능, 메모리 용량 등 전반적인 성능을 높였다”고 강조했다. 아이언우드의 연산 성능은 이전 세대인 트릴리움 대비 최대 5대 향상됐다. 최대 9216개의 액체 냉각 칩으로 확장할 수 있으며, 42.5 엑사플롭스(EF·1초에 100경번 연산)의 연산 성능을 발휘할 수 있다는 게 그의 설명이다. 대규모 연산 처리 수행 과정에서 칩 내 데이터 이동과 지연 최소화에도 중점을 뒀다. 아이언우드는 낮은 지연과 높은 대역폭을 갖춘 최첨단 칩 간 인터커넥트(ICI) 네트워크로 연결됐다. 이를 통해 단일 칩의 한계를 넘어선 연산 요구에 대응하고 TPU 전체 규모의 동기화 통신을 지원한다. 고대역폭 메모리(HBM) 용량과 대역폭도 대폭 늘렸다. 아이언우드는 칩당 192GB의 HBM을 제공한다. 이는 이전 세대인 트릴리움 대비 6배 증가한 수치다. 이를 통해 대규모 모델과 데이터셋을 처리할 수 있어 데이터 이동을 줄이고 성능을 향상시킨다. HBM 대역폭은 트릴리움보다 4.5배 증가한 칩당 7.2Tbps를 제공한다. 메모리 중심 AI 작업에 있어 빠른 데이터 접근 속도를 보장한다. 아이언우드는 올해 안에 출시될 예정이다. 현대인 기자 [email protected]
Genesis Park 편집팀이 AI를 활용하여 작성한 분석입니다. 원문은 출처 링크를 통해 확인할 수 있습니다.
공유