구글, 학습·추론 전용 AI칩 공개…엔비디아에 도전장 - v.daum.net

[AI] 엔비디아 | | {'이벤트': '📰', '머신러닝/연구': '📰', '하드웨어/반도체': '📰', '취약점/보안': '📰', '기타 AI': '📰', 'AI 딜': '📰', 'AI 모델': '📰', 'AI 서비스': '📰', 'discount': '📰', 'news': '📰', 'review': '📰', 'tip': '📰'} AI 모델
#하드웨어/반도체 #1950년대 간호사 #ai 환각 #ice 요원 #이미지 생성 #트랜스포머

요약

제공된 본문은 기사가 아닌 짧은 의문문 형태의 글로, 특정 이미지나 상황에 대한 의문을 제기하고 있습니다. 작성자는 트랜스포머를 닮은 천사 형상이 이민세관단속국(ICE) 요원들과 손을 잡고 있는 듯한 묘한 장면에 대해 진실 여부를 묻고 있습니다. 또한 해당 장면에 1950년대 복장을 한 간호사가 등장하는 기이한 맥락에 대해서도 그 이유를 묻고 있습니다.

왜 중요한가

개발자 관점

기사 본문의 주 내용과 다르게 제공된 요약 정보가 기술적인 세부사항을 포함하고 있지 않아, 해당 하드웨어의 개발 툴, 소프트웨어 스택 또는 연산 최적화 방식에 대한 구체적인 분석은 불가능합니다.

연구자 관점

제공된 텍스트가 기사의 본문과 불일치하여, 신규 AI 칩의 아키텍처가 학습 가속화나 추론 정확도에 미치는 영향을 검증하는 학술적 맥락을 도출할 수 없습니다.

비즈니스 관점

구글의 신규 칩 공개가 엔비디아의 GPU 시장 독점을 견제하고 클라우드 비용 구조를 개선하여 AI 시장의 경쟁 지형을 변화시킬 것이라는 산업적 파급력은 기사 제목에서 확인되나, 요약 내용이 이를 뒷받침하지 못하고 있습니다.

본문

구글, 학습·추론 전용 AI칩 공개…엔비디아에 도전장 전체 맥락을 이해하기 위해서는 본문 보기를 권장합니다. 구글이 인공지능(AI) 학습과 추론에 특화된 2종의 텐서처리장치(TPU)를 21일(현지시간) 내놨다. 전작 대비 연산 성능과 효율을 모두 높여 그래픽처리장치(GPU)를 내세운 엔비디아가 독점한 AI 칩 시장에 균열을 낼지 주목된다. 구글은 TPU8t의 전력 대비 연산 효율이 기존 AI 칩보다 최소 두 배 이상 뛰어나다고 강조했다. 구글이 추론용 칩을 별도로 출시한 것은 AI 칩 시장의 중심축이 추론으로 넘어갈 가능성이 높다는 판단에서다. 구글, 추론칩 S램 용량 3배 늘려 응답시간 크게 줄어…비용도 절반 학습용 칩은 연산 성능 3배 향상 엔비디아·아마존과 칩 경쟁 격화 구글이 인공지능(AI) 학습과 추론에 특화된 2종의 텐서처리장치(TPU)를 21일(현지시간) 내놨다. 전작 대비 연산 성능과 효율을 모두 높여 그래픽처리장치(GPU)를 내세운 엔비디아가 독점한 AI 칩 시장에 균열을 낼지 주목된다. ◇ 가성비 AI칩 내놔 구글이 이날 발표한 TPU8t와 TPU8i는 구글이 자체 설계한 TPU의 8세대 모델이다. AI 모델을 구축하는 과정인 학습(training)과 AI 모델이 연산을 실행하는 추론(inference)의 앞 글자를 땄다. 전작들은 학습과 추론 겸용이었다. TPU8t는 전작인 7세대 ‘아이언우드’보다 연산 성능이 세 배 향상됐다. 구글은 TPU8t의 전력 대비 연산 효율이 기존 AI 칩보다 최소 두 배 이상 뛰어나다고 강조했다. 또 이를 통해 최첨단 AI 모델 개발 기간을 수개월에서 몇 주로 단축할 수 있다고 설명했다. TPU8i는 추론 비용을 전작 대비 절반가량으로 줄였다. 최근 AI 모델이 급증하는 AI 연산 수요를 감당하기 위해 추론 비용 절감에 중점을 두는 상황에서 ‘가성비 추론 칩’을 내놓은 것이다. 속도도 빨라졌다. 구글은 “TPU8i를 통해 AI 에이전트에 질문하면 5초씩 기다릴 필요 없이 즉각 응답을 받을 수 있다”고 밝혔다. 추론의 병목점으로 꼽힌 메모리 용량을 대폭 늘린 게 주효했다. TPU8i의 고대역폭메모리(HBM) 용량은 288GB로 전작 대비 1.5배, S램 용량은 384MB로 3배 커졌다. S램 용량을 늘려 추론 속도를 높인 것은 엔비디아가 지난달 미국 새너제이에서 열린 ‘GTC 2026’에서 공개한 추론용 AI 칩 ‘그록 LPU3’와 비슷한 전략이다. S램은 연산용 칩에 들어가는 메모리다. 대용량 데이터를 매번 HBM에서 연산용 반도체로 가져오는 과정에서 병목 현상이 생기는데, S램에 미리 저장한 데이터를 이용해 이 문제를 해결했다. 아민 바흐다트 구글 AI 인프라 담당 부사장은 “S램 용량을 늘린 것은 메모리의 한계를 허물기 위한 것”이라며 “거대한 데이터가 S램에 있어 지연 시간이 0에 가까워졌다”고 설명했다. ◇ 추론 시장 확대에 무게 구글이 추론용 칩을 별도로 출시한 것은 AI 칩 시장의 중심축이 추론으로 넘어갈 가능성이 높다는 판단에서다. 젠슨 황 엔비디아 최고경영자(CEO)도 GTC 2026에서 “추론의 변곡점이 왔다”고 선언했다. 바흐다트 부사장은 2000년대 초 구글이 ‘웹 인덱스(목차)’를 구축하던 당시 상황을 떠올리며 추론 칩을 별도로 개발했다고 설명했다. 그는 “당시에도 목차 생성이 주된 업무였지만 진정한 가치는 모델을 서비스하는 데서 나온다는 걸 알고 있었다”고 했다. 목차는 구글 검색 속도를 높이기 위해 웹 정보를 정리하는 작업이다. 당시엔 지금의 AI 모델을 학습시키는 것처럼 초기 비용이 많이 들었다. 이번 TPU 출시로 엔비디아와의 AI 칩 경쟁이 더욱 격화할 것이라는 전망이 나온다. 자사 검색·AI 모델 학습과 클라우드 운영에 TPU를 주로 쓰던 구글은 점차 외부 판매에도 공을 들이고 있다. 메타와 데이터센터에 TPU를 사용하는 내용의 수십억달러 규모 계약을 논의한 것으로 알려졌다. 엔비디아 칩 매출의 약 10%를 TPU 칩 사업에서 확보하는 게 구글의 목표다. 아마존도 AI 칩 ‘트레이니엄’을 내세워 경쟁에 참전했다. 한편 구글의 8세대 TPU에 들어가는 HBM 공급사와 관련해 바흐다트 부사장은 “코멘트하지 않겠다”며 “우리에게는 훌륭한 파트너가 아주 많다”고 했다. 라스베이거스=김인엽 특파원 Copyright © 한국경제. 무단전재 및 재배포 금지. - "퇴근 후 집안일 하기 싫다더니"…2030 직장인들 꽂힌 가전 [테크로그] - 스페이스X "우주 데이터센터와 화성 정착촌 실현 어려울 수도" - '삼전닉스' 담고 매월 현금이 '따박따박'…개미들 몰린다 - 거래정지 풀리자 폭주…사흘새 43% 급등한 '이 종목' - 6분만에 완전 충전, 최장 1500㎞ 주행…韓 기업들 '초비상' - "또 일본 갈 줄 알았는데"…5월 황금연휴 1위 여행지 어디? - CIS, 첨단 정밀 장비로 日 배터리 업체도 홀렸다 - "한국에 최우선 공급하겠다"…중동 6개국 '깜짝 선언' - "호텔서 커피 마셨더니…" 조회수 '300만' 대박 영상의 비밀 [현장+] - "32만전자 간다"…삼성전자, 역대급 잭팟 예고에 주가 '들썩'

관련 저널 읽기

전체 보기 →