HBM만 AI 메모리?…삼성·SK, LPDDR6로 판 키운다

김남이 기자
2026.02.24 16:21

삼성전자·SK하이닉스, ISSCC에서 LPDDR6 개발 발표...AI 병목 현상 줄일 대안으로 꼽혀

삼성전자 LPDDR5X/사진제공=삼성전자

AI(인공지능) 메모리 시장에서 LPDDR(저전력 D램)이 부상하고 있다. 높은 전력 효율과 함께 HBM(고대역폭메모리)만으로는 해소가 어려운 AI 병목 현상을 보완할 대안으로 주목받는다. 삼성전자와 SK하이닉스는 차세대 LPDDR을 공개하며 시장 선점 경쟁에 나섰다.

24일 업계에 따르면 지난 15~19일(현지시간) 미국 샌프란시스코에서 열린 'ISSCC(국제고체회로학회) 2026'에서 삼성전자와 SK하이닉스는 각각 LPDDR6 개발 성과를 발표했다. ISSCC는 반도체 설계 분야 최고 권위의 학회로 꼽힌다.

삼성전자와 SK하이닉스는 모두 JEDEC(국제반도체표준협의기구) 표준에 부합하는 초당 최대 14.4Gb(기가비트) 전송 속도의 LPDDR6를 선보였다. 이전 세대인 LPDDR5X(최대 10.7Gb/s)와 비교하면 약 35% 향상된 수준이다. LPDDR6는 올해 하반기 출시가 예상된다.

삼성전자는 전력 효율성에 방점을 찍었다. 대부분의 회로가 초저전압에서도 동작하도록 설계했고, LPDDR5 대비 읽기 전력을 27% 개선했다. 최소 전압(0.97V)에서 12.8Gb/s의 전송 속도를 구현하고, 구조적 최적화를 통해 실사용 환경에서의 안정성을 강조했다.

SK하이닉스 역시 전력 절감을 위한 '효율 모드(Efficiency Mode)'를 적용했다. 12.8Gb/s 속도를 유지하면서 소비 전력을 낮췄다. 저전압 환경에서는 10.9Gb/s의 속도를 내고, 최대 전송 속도(14.4Gb/s)에서도 안정적인 성능을 낸다고 밝혔다. 필요한 만큼 전력을 사용하는 전력 제어 기술도 제시했다.

SK하이닉스 LPDDR5X/ 사진제공=LPDDR5X

LPDDR은 그동안 전력 효율이 중요한 스마트폰 등 모바일 기기에 주로 탑재돼 왔다. 하지만 최근에는 AI 인프라 확산과 함께 활용 범위가 넓어지고 있다. 뛰어난 전력 효율성과 함께 HBM만으로 부족한 메모리 용량을 보완할 제품으로 주목 받고 있다. LPDDR을 활용해 시스템 전체 메모리 용량을 확장하고 데이터센터의 에너지 효율을 높여 총소유비용(TCO)을 절감할 수 있다.

특히 추론형 AI는 대화 맥락을 유지하기 위해 'KV 캐시'라는 임시 데이터를 생성한다. 문맥이 길어질수록 KV 캐시 용량이 급격히 증가해 GPU(그래픽처리장치)에 탑재된 HBM 용량이 부족한 병목이 발생할 수 있다. 이에 HBM의 대역폭과 LPDDR의 고용량·저전력 특성을 결합하는 설계가 대안으로 거론된다.

또 LPDDR은 일반 D램 대비 전력과 공간 효율이 뛰어나 기존 시스템 구조를 크게 변경하지 않고도 메모리 용량을 확장할 수 있다는 장점이 있다. 삼성전자와 SK하이닉스는 LPDDR6에 AI 연산 효율을 높이기 위한 '메타데이터(Metadata)' 영역을 반영해 데이터 관리 효율성도 강화했다.

예컨대 엔비디아의 GH200 시스템은 그레이스 CPU(중앙처리장치)에 탑재된 LPDDR5X와 호퍼 GPU(그래픽처리장치)에 탑재된 HBM3E를 연결했다. 올해 하반기에 출시될 엔비디아의 베라 CPU에는 1.5Tb(테라바이트)의 LPDDR5X가 탑재될 예정이다.

마이크론의 연구에 따르면 LPDDR5X 용량을 512GB(기가바이트)에서 1.5TB로 확대하면 실시간 추론 환경에서 첫 토큰 생성 시간(TTFT)을 최대 98% 단축하는 효과를 낼 수 있다. 메모리 용량이 커질수록 재계산을 줄일 수 있어 초기 응답 속도가 개선된다.

업계 관계자는 "HBM만으로는 급증하는 메모리 수요를 모두 감당하기 어렵다"며 "HBM과 함께 서버용 D램, LPDDR5X 등의 수요가 동시에 늘면서 관련 메모리 전반의 수익성 개선으로 이어지고 있다"고 말했다.

<저작권자 © ‘돈이 보이는 리얼타임 뉴스’ 머니투데이. 무단전재 및 재배포, AI학습 이용 금지>