HBM 다음은 ‘SOCAMM2’…SK하이닉스, ‘베라 루빈’용 모듈 양산 돌입 - mstoday.co.kr
[AI] SOCAMM2
|
|
{'이벤트': '📰', '머신러닝/연구': '📰', '하드웨어/반도체': '📰', '취약점/보안': '📰', '기타 AI': '📰', 'AI 딜': '📰', 'AI 모델': '📰', 'AI 서비스': '📰', 'discount': '📰', 'news': '📰', 'review': '📰', 'tip': '📰'} 하드웨어/반도체
#hbm
#sk하이닉스
#socamm2
#모듈 양산
#베라 루빈
#양산
요약
SK하이닉스가 HBM에 이어 차세대 고성능 메모리 모듈인 ‘SOCAMM2’의 양산에 돌입했습니다. 이번 제품은 엔비디아의 차세대 AI 칩인 ‘베라 루빈’에 탑재될 예정입니다.
왜 중요한가
본문
[MS투데이] SK하이닉스가 엔비디아의 차세대 인공지능(AI) 가속기 ‘베라 루빈(Vera Rubin)’에 탑재될 고성능 메모리 모듈 ‘SOCAMM2(소캠2) 192GB’ 제품을 본격 양산한다. 회사는 이번 제품이 초거대 AI 모델 구동 과정에서 발생하는 메모리 병목 현상을 줄이고 시스템 처리 속도를 끌어올리는 데 핵심 역할을 할 것으로 기대하고 있다. SOCAMM2는 기존 모바일 기기에 주로 사용되던 저전력 D램(LPDDR)을 서버 환경에 맞게 재구성한 AI 특화 모듈이다. SK하이닉스는 엔비디아의 차세대 플랫폼 구조에 맞춰 설계를 최적화했으며, 이를 통해 학습과 추론 모두에서 효율을 높일 수 있도록 했다고 설명했다. LPDDR 기반 모듈화…대역폭 2배·에너지 효율 75% 개선 이번에 양산되는 192GB 제품에는 10나노급 6세대(1c) LPDDR5X 공정이 적용됐다. SK하이닉스에 따르면 기존 서버용 메모리 모듈인 DDR5 RDIMM과 비교해 대역폭은 2배 이상 넓고, 에너지 효율은 75% 이상 개선됐다. 기존 LPDDR이 메인보드에 직접 납땜되는 온보드(On-board) 방식이었다면, SOCAMM2는 압착식 커넥터 기반 모듈 구조를 채택해 탈부착과 교체가 가능하도록 설계됐다. 이 방식은 신호 무결성을 높이는 동시에 서버 운영 과정에서의 유지·보수 편의성도 강화한다. AI 데이터센터 환경에서는 전력과 냉각 비용이 핵심 변수로 작용한다. SOCAMM2는 저전력 특성을 바탕으로 동일 전력 조건에서 더 많은 AI 연산을 처리할 수 있어 데이터센터의 총소유비용(TCO) 절감에도 기여할 것으로 예상된다. HBM·DDR5 사이 ‘중간 계층’…AI 메모리 구조 재편 최근 AI 인프라에서는 초고대역폭을 제공하는 HBM과 대용량 중심의 DDR5 RDIMM 사이에서 성능과 전력 효율을 동시에 확보할 수 있는 새로운 메모리 계층에 대한 수요가 커지고 있다. SOCAMM2는 이러한 간극을 메우는 ‘중간 계층’ 메모리로 평가된다. HBM이 GPU 패키지 내부에서 초고속 연산을 지원하고, DDR5가 대규모 데이터 저장을 담당하는 구조에서 SOCAMM2는 고대역폭과 저전력 특성을 바탕으로 중간 데이터 버퍼 및 ‘핫 데이터’ 처리를 맡는 역할을 수행한다. 특히 AI 시장이 학습 중심에서 추론 중심으로 이동하면서 저전력 환경에서 거대언어모델(LLM)을 구동할 수 있는 메모리 솔루션의 중요성이 더욱 커지고 있다. SOCAMM2는 이러한 변화에 대응하는 전략 제품으로 자리매김하고 있다. 글로벌 CSP 수요 대응…‘풀스택 AI 메모리’ 전략 강화 SK하이닉스는 글로벌 클라우드 서비스 제공자(CSP) 수요 증가에 맞춰 SOCAMM2 양산 체제를 조기에 안정화했다고 밝혔다. 회사는 HBM, DDR5, LPDDR, CXL 메모리, SOCAMM으로 이어지는 ‘풀스택 AI 메모리’ 포트폴리오를 통해 학습부터 추론까지 AI 인프라 전 구간을 아우르는 전략을 강화하고 있다. 김주선 SK하이닉스 AI 인프라 사장은 “SOCAMM2 192GB 제품 공급으로 AI 메모리 성능의 새로운 기준을 세웠다”며 “글로벌 AI 고객과 긴밀히 협력해 신뢰받는 AI 메모리 솔루션 기업으로 자리매김하겠다”고 밝혔다. “메모리 병목 해소가 GPU 성능 좌우” 반도체 업계 한 전문가는 “AI 가속기의 연산 성능이 아무리 높아져도 데이터를 제때 공급하지 못하면 전체 시스템 효율은 떨어질 수밖에 없다”며 “HBM만으로는 해결하기 어려운 전력·비용 문제를 보완할 수 있는 중간 계층 메모리의 역할이 갈수록 중요해질 것”이라고 말했다. 그는 이어 “SOCAMM2와 같은 저전력 고대역폭 모듈이 본격 확산되면 AI 서버 아키텍처 자체가 보다 다층적인 메모리 구조로 재편될 가능성이 높다”고 전망했다. HBM에서 시작된 AI 메모리 경쟁은 이제 SOCAMM2로 확장되고 있다. SK하이닉스가 엔비디아 차세대 플랫폼에 최적화된 제품을 앞세워 시장 공략에 나서면서, AI 인프라의 메모리 계층 구조는 또 한 번 진화의 변곡점을 맞고 있다.