구글, 8세대 TPU 공개, 성장을 견인하기 위해 구글 클라우드 넥스트에서 에이전틱 AI로 전환 - TradingKey
[AI] google tpu
|
|
🖥️ 하드웨어
#하드웨어/반도체
#ai
#gtc 2026
#서울와이어
#엔비디아
#인공지능
#젠슨 황
#코리아 ai 엑스퍼트 데이
요약
죄송하지만, 제공해주신 기사 본문에는 제목과 출처만 포함되어 있어 요약을 작성하기 어렵습니다. 기사의 구체적인 내용(행사 일정, 참가자, 발표 내용, 성과 등)이 담긴 본문을 전달해 주시면, 요약 전문가로서 규칙에 맞춰 2-4문장 이상의 한국어 요약을 즉시 작성해 드리겠습니다. 추가 텍스트를 제공해 주시면 감사하겠습니다.
왜 중요한가
개발자 관점
검토중입니다
연구자 관점
검토중입니다
비즈니스 관점
검토중입니다
본문
구글, 8세대 TPU 공개, 성장을 견인하기 위해 구글 클라우드 넥스트에서 에이전틱 AI로 전환 구글은 연례 행사에서 8세대 TPU와 에이전틱 엔터프라이즈 기술 스택을 공개하며 1,750억~1,850억 달러의 자본 지출 확대를 재확인했습니다. JP모건, BofA, 씨티는 제미나이 모델, TPU, 에이전트 플랫폼 간 시너지가 주가 동력이 될 것이라며 '매수' 의견을 유지했습니다. 8세대 TPU는 AI 학습용 TPU 8t와 추론용 TPU 8i로 나뉘어 출시되었으며, 각각 향상된 성능과 '메모리 벽' 문제 해결에 초점을 맞췄습니다. 두 칩 모두 구글 자체 Arm 기반 액시온 CPU에서 구동되며, 4세대 액체 냉각 기술을 활용합니다. JP모건은 추론용 칩 분리가 수요 증가를 시사하며, 향후 수익 구조 변화에 주목해야 한다고 분석했습니다. 또한, 구글은 Vertex AI 위에 'Gemini Enterprise Agent Platform'을 출시하여 기업용 AI 도입을 간소화했습니다. 이는 분산된 기능 모듈 대신 단일 진입점을 통해 기업의 구축, 오케스트레이션, 거버넌스 및 보안 기능을 통합하며, 씨티는 동일 관리 시스템 내 여러 에이전트 배치를 통한 워크플로우 실행을 핵심 가치로 꼽았습니다. 한편, 1,750억~1,850억 달러의 자본 지출 전망에 대해 BofA는 AI 투자 증가가 잉여현금흐름을 압박하여 수익성에 부담을 줄 수 있다고 지적했으며, 향후 구글이 AI 지출 확대와 클라우드 성장 기대치 충족 사이에서 균형을 맞추는 것이 중요할 것으로 보입니다. TradingKey - 구글 (GOOG) (GOOGL) 올해 '구글 클라우드 넥스트 26(Google Cloud Next 26)' 연례 행사가 4월 22일부터 24일까지 미국에서 개최되었습니다. 이번 컨퍼런스에서 구글은 8세대 TPU를 공개하고 에이전틱 엔터프라이즈(Agentic Enterprise) 기술 스택을 출시했으며, 올해 1,750억 달러에서 1,850억 달러 규모의 투자 계획과 함께 자본 지출의 대폭적인 확대를 재확인했습니다. 컨퍼런스 이후 JP모건 (JPM), BofA 증권 (BAC) 및 씨티 리서치는 (C) 알파벳에 대한 '매수' 의견을 모두 유지했으며, 제미나이(Gemini) 모델, 자체 개발 TPU, 기업용 에이전트 플랫폼 간의 긴밀한 시너지가 구글의 핵심 경쟁력이며 이는 주가의 직접적인 동력이 될 것이라고 언급했습니다. 자본시장은 현재 Google의 자체 칩 개발 진척 상황을 예의주시하고 있다. 이번 출시로 Google의 8세대 TPU는 처음으로 AI 모델 학습용으로 설계된 TPU 8t와 전용 추론 칩으로 포지셔닝된 TPU 8i라는 두 개의 독립적인 제품 라인으로 나뉘었다. 아민 바닷 Google 부사장은 TPU 8t 학습용 칩이 새로운 버고(Virgo) 네트워크 패브릭을 활용해 단일 클러스터당 100만 개 이상의 칩으로 클러스터를 확장할 수 있다고 밝혔다. TPU 8t 어레이의 연산 성능은 이전 세대인 아이언우드(Ironwood)의 거의 3배에 달하며, 와트당 성능은 최대 2배 향상되었다. 기존 칩은 칩이 데이터에 충분히 빠르게 접근하지 못해 사용자가 더 긴 응답 시간을 견뎌야 하는 병목 현상인 '메모리 벽' 문제로 어려움을 겪고 있다. TPU 8i는 이러한 '메모리 벽을 허물기' 위한 Google의 솔루션으로, 최소한의 지연 시간으로 방대한 양의 데이터를 초고속으로 처리한다. 이는 288GB의 고대역폭 메모리(HBM)와 이전 제품의 3배에 달하는 384MB의 온칩 SRAM을 통해 구현되었으며, 이를 통해 모델의 활성 작업 세트가 칩 내부에서 실행될 수 있게 함으로써 프로세서와 메모리 사이의 장거리 데이터 전송 필요성을 제거했다. 이 두 칩은 처음으로 Google 자체 Arm 기반의 (ARM) 액시온(Axion) CPU 호스트에서 구동되며, 이를 통해 Google은 성능과 효율성 향상을 위해 전체 시스템을 최적화할 수 있게 되었다. 두 칩 모두 Google의 4세대 액체 냉각 기술을 활용하여 공랭 방식으로는 달성할 수 없는 성능 밀도를 유지한다. JPMorgan은 연구 보고서를 통해 Google이 추론용으로 학습용 칩을 사용하는 대신 TPU를 추론과 학습이라는 두 개의 독립적인 제품 라인으로 분리한 것은, 추론 컴퓨팅 파워에 대한 수요가 전용 실리콘과 별도의 자본 배분을 정당화할 만큼 충분히 커졌다고 Google이 판단하고 있음을 시사한다고 밝혔다. 향후 이 분야에서 Google의 수익 구조 변화에 주목해야 하는데, 수익이 더 이상 학습에서만 발생하는 것이 아니라 추론 측면의 지속적인 소비에서 점점 더 많이 발생하여 독립적인 성장 곡선을 형성할 수 있기 때문이다. 경영진이 회의 중 외부 TPU 판매 가능성을 언급하지 않았기 때문에, 기관들은 현재 8세대 TPU가 Google의 내부용으로 사용되거나 클라우드 서비스를 통해 제공되고 있는 것으로 보고 있다. 구글은 이번 컨퍼런스에서 하드웨어 업그레이드뿐만 아니라 플랫폼 계층의 구조 개편을 발표하며, Vertex AI 상단에 'Gemini Enterprise Agent Platform'을 출시했다. Vertex AI는 구글이 2021년 출시한 머신러닝(ML) 플랫폼으로, AutoML 및 AI Platform과 같은 도구를 통합해 데이터 준비부터 모델 배포까지 전 과정에 걸친 서비스를 제공한다. 이 플랫폼은 주로 기업용 고객을 대상으로 하며, 로레알(L'Oréal)의 모디페이스(ModiFace)가 피부 진단 AI 학습에 Vertex AI를 활용하는 것이 대표적 사례다. J.P. 모건은 연구 보고서를 통해 이를 사실상 "Vertex AI를 대체(superseding)"하는 것으로 설명했다. 이는 분산된 기능 모듈 형태가 아닌 단일 진입점을 통해 기업의 구축, 오케스트레이션, 거버넌스 및 보안 기능을 통합한다. 씨티(Citi)는 기업이 동일한 관리 시스템 내에 여러 에이전트를 배치해 워크플로우를 실행할 수 있도록 한 점이 플랫폼의 핵심 가치라고 언급했다. 기업 입장에서 AI 도입은 더 이상 높은 기술적 장벽을 필요로 하지 않으며, 플랫폼이 애플리케이션을 표준화하면 기업은 '플러그 앤 플레이' 기능을 갖춰 즉시 생산 단계로 넘어갈 수 있다. 순다르 피차이 구글 CEO는 이번 컨퍼런스 기조연설에서 2026년 연간 자본 지출이 1,750억 달러에서 1,850억 달러 범위 내에 있을 것으로 예상된다고 재확인했으며, 이는 이번 행사에서 재무 규모와 관련해 언급된 유일한 발언이었다. 이에 대해 세 개 기관이 서로 다른 견해를 제시했다. JP모건은 단기적인 관점에서 이번 발표가 다음 주 실적 보고 시 "기존 가이던스를 변경하지 않을" 확률을 높인다고 언급했다. 다만 연간 기준으로는 아민 바닷 구글 AI 인프라 CTO와 제프 딘 수석 AI 과학자가 모두 AI 분야의 공급 제약이 지속되고 있음을 강조했으며, 이는 자본 지출 경로가 여전히 상향될 가능성이 있음을 시사한다. BofA증권은 리스크를 직접적으로 지목했다. AI 투자가 자본 지출을 늘리고 잉여현금흐름을 압박함에 따라, 수익성에 부담을 주는 가장 직접적인 요인 중 하나로 작용하고 있다는 분석이다. 향후 몇 분기 동안은 구글이 AI 지출을 확대할 가능성이 높은 상황에서 현금 흐름에 미치는 영향을 어느 정도 완화할 수 있는지, 그리고 구글 클라우드의 성장과 수익성에 대한 시장의 높은 기대를 충족할 수 있을지 여부에 초점이 맞춰질 것이다. 이 콘텐츠는 AI를 활용하여 번역되었으며, 명확성을 확보할 수 있도록 검토 과정을 거쳤습니다. 정보 제공 용도로만 제공됩니다.