SK하이닉스, 대역폭 2배·전력효율↑…AI 메모리 ‘SOCAMM2’ 양산 - 더나은미래

[AI] ai 메모리 | | ⚡ AI 서비스
#ai #sk하이닉스 #socamm2 #메모리 #양산 #ai 딜 #ai 에이전트 #anthropic #managed agents #web ui #오픈소스
원문 출처: [AI] ai 메모리 · Genesis Park에서 요약 및 분석

요약

SK하이닉스가 10나노급 6세대(1c) 공정이 적용된 차세대 AI 메모리 모듈인 SOCAMM2 192GB 제품의 양산에 돌입했습니다. 이 제품은 기존 RDIMM 대비 대역폭은 2배 이상, 에너지 효율은 75% 이상 개선되어 엔비디아의 차세대 AI 칩셋인 베라 루빈에 최적화되어 있습니다. SK하이닉스는 이 메모리가 초거대 AI 모델의 병목 현상을 해소하고 시스템 처리 속도를 높여 글로벌 CSP 고객들의 수요를 충족시킬 것으로 기대하고 있습니다.

본문

SK 하이닉스가 10나노급 6세대(1c) LPDDR5X 저전력 D램 기반 차세대 메모리 모듈 규격인 SOCAMM2 192GB(기가바이트) 제품을 본격 양산한다고 20일 밝혔다. SOCAMM2는 주로 스마트폰 등 모바일 제품에 사용되던 저전력 메모리를 서버 환경에 맞게 변형한 모듈로 차세대 AI 서버 등에 주력으로 활용된다. SK하이닉스는 “1c 나노 공정을 적용한 SOCAMM2 제품은 기존RDIMM 대비 2배 이상의 대역폭과 75% 이상 개선된 에너지 효율을 실현해 고성능 AI 연산에 최적화된 설루션”이라고 강조했다. 특히, 이번 SOCAMM2 제품이 엔비디아의 베라 루빈(Vera Rubin)에 최적화되어 설계됐다고 밝혔다. SK 하이닉스가 10나노급 6세대(1c) LPDDR5X 저전력 D램 기반 차세대 메모리 모듈 규격인 SOCAMM2 192GB(기가바이트) 제품을 본격 양산한다고 20일 밝혔다. SOCAMM2는 주로 스마트폰 등 모바일 제품에 사용되던 저전력 메모리를 서버 환경에 맞게 변형한 모듈로 차세대 AI 서버 등에 주력으로 활용된다. /SK하이닉스 이어, 수천 억 개의 파라미터를 보유한 초거대 AI 모델의 학습과 추론 과정에서 발생하는 메모리 병목 현상을 근본적으로 해소함으로써 전체 시스템의 처리 속도를 비약적으로 높이는 데 기여할 것으로 SK하이닉스는 기대하고 있다. 회사는 “AI 시장이 학습에서 추론 중심으로 본격 전환되면서, 거대언어모델을 저전력으로 구동할 수 있는 SOCAMM2가 차세대 메모리 설루션으로 주목받고 있다”며, “글로벌 CSP(Cloud Service Provider) 고객 수요에 발맞춰 양산 체제를 조기 안정화 했다”고 덧붙였다. SK하이닉스 김주선 AI Infra사장(CMO)은 “SOCAMM2 192GB 제품 공급으로 AI 메모리 성능의 새로운 기준을 세웠다”며, “글로벌 AI 고객과 긴밀한 협력을 바탕으로 고객이 가장 신뢰하는 AI 메모리 설루션 기업으로 자리매김하겠다”고 말했다. 구지훈 더나은미래 기자

Genesis Park 편집팀이 AI를 활용하여 작성한 분석입니다. 원문은 출처 링크를 통해 확인할 수 있습니다.

공유

관련 저널 읽기

전체 보기 →