SK하이닉스, SOCAMM2 192GB 양산..."엔비디아 ‘베라 루빈’ 최적화" - PRESS9

[AI] SOCAMM2 | | {'이벤트': '📰', '머신러닝/연구': '📰', '하드웨어/반도체': '📰', '취약점/보안': '📰', '기타 AI': '📰', 'AI 딜': '📰', 'AI 모델': '📰', 'AI 서비스': '📰', 'discount': '📰', 'news': '📰', 'review': '📰', 'tip': '📰'} 하드웨어/반도체
#sk하이닉스 #socamm2 #반도체 #베라 루빈 #엔비디아 #양산

요약

SK하이닉스가 엔비디아의 차세대 AI 반도체 ‘베라 루빈’에 최적화한 SOCAMM2 192GB 제품의 양산에 돌입했습니다. 이번 신제품은 고대역폭과 대용량을 갖춰 향후 고성능 AI 서버 시장의 수요를 충족시킬 것으로 기대됩니다.

왜 중요한가

본문

최신 1c 나노 공정 기반 고집적 D램 탑재해 전력 효율 극대화 “엔비디아와 긴밀한 협력을 통해 AI 인프라의 병목 현상을 해결하고, 최적의 성능 제공 [프레스나인] SK하이닉스가 10나노급 6세대(1c) LPDDR5X 저전력 D램 기반 차세대 메모리 모듈 규격인 SOCAMM2 192GB(기가바이트) 제품을 본격 양산한다고 20일 밝혔다. SOCAMM2(Small Outline Compression Attached Memory Module2)은 저전력 D램인 LPDDR 기반의 AI 서버 특화 메모리 모듈로 얇은 두께와 높은 확장성을 갖춘 AI 서버용 메모리 모듈로, 압착식 커넥터를 통해 신호 무결성을 높이고 모듈 교체가 용이한 장점이 있다. SK하이닉스는 "1c 나노 공정을 적용한 SOCAMM2 제품은 기존 서버/워크스테이션용 D램 모듈 RDIMM 대비 2배 이상의 대역폭과 75% 이상 개선된 에너지 효율을 실현해 고성능 AI 연산에 최적화된 설루션"이라고 강조했다. 특히, 이번 SOCAMM2 제품이 엔비디아의 베라 루빈(Vera Rubin)에 최적화되어 설계됐다고 밝혔다. 이어, 수천 억 개의 파라미터를 보유한 초거대 AI 모델의 학습과 추론 과정에서 발생하는 메모리 병목 현상을 근본적으로 해소함으로써 전체 시스템의 처리 속도를 비약적으로 높이는 데 기여할 것으로 SK하이닉스는 기대하고 있다. 회사는 “AI 시장이 학습에서 추론 중심으로 본격 전환되면서, 거대언어모델을 저전력으로 구동할 수 있는 SOCAMM2가 차세대 메모리 설루션으로 주목받고 있다”며, “글로벌 CSP(Cloud Service Provider) 고객 수요에 발맞춰 양산 체제를 조기 안정화 했다”고 덧붙였다. SK하이닉스 김주선 AI Infra 사장(CMO, Chief Marketing Officer)은 “SOCAMM2 192GB 제품 공급으로 AI 메모리 성능의 새로운 기준을 세웠다”며, “글로벌 AI 고객과 긴밀한 협력을 바탕으로 고객이 가장 신뢰하는 AI 메모리 설루션 기업으로 자리매김하겠다”고 말했다. SK하이닉스가 10나노급 6세대(1c) LPDDR5X 저전력 D램 기반 차세대 메모리 모듈 규격인 SOCAMM2 192GB(기가바이트) 제품을 본격 양산한다고 20일 밝혔다. 사진/SK하이닉스 저작권자 © PRESS9 무단전재 및 재배포 금지

관련 저널 읽기

전체 보기 →