'터보퀀트' 위기 vs 기회
구글이 AI 메모리 사용량을 압축하는 '터보퀀트'를 공개하면서 슈퍼사이클에 진입한 메모리 수요 둔화 우려가 나온다. 이로 인해 글로벌 메모리 3사(삼성전자·SK하이닉스·마이크론) 주가도 일시적으로 하락했다. 다만 업계에서는 해당 기술이 AI 활용을 확대해 오히려 반도체 시장 성장을 자극할 수 있다는 관측에 무게가 실리고 있다.
구글이 AI 메모리 사용량을 압축하는 '터보퀀트'를 공개하면서 슈퍼사이클에 진입한 메모리 수요 둔화 우려가 나온다. 이로 인해 글로벌 메모리 3사(삼성전자·SK하이닉스·마이크론) 주가도 일시적으로 하락했다. 다만 업계에서는 해당 기술이 AI 활용을 확대해 오히려 반도체 시장 성장을 자극할 수 있다는 관측에 무게가 실리고 있다.
총 4 건
인공지능(AI) 붐을 타고 고공행진을 이어가던 메모리 반도체 종목들이 구글이 발표한 새로운 데이터 압축 기술 '터보퀀트(TurboQuant)'의 직격탄을 맞았다. 이 기술이 인공지능(AI)의 메모리 부담을 획기적으로 낮춘다는 소식에 메모리 수요 감소 우려가 번지면서다. 하지만 이 같은 시장 반응이 과도하다는 견해도 적잖다. 효율성을 개선되면 수요가 늘어나는 이른바 '제번스의 역설'을 간과하고 있다는 지적이다. '제번스의 역설'은 19세기 증기기관의 효율이 개선되자 석탄 사용이 줄어들기는커녕 산업 전반으로 활용이 확산하면서 석탄 수요가 폭발적으로 늘었던 데서 착안했다. ━구글 '터보퀀트'가 뭐길래…시장 출렁━구글은 24일(현지시간) X를 통해 터보퀀트 기술을 소개했다. AI 모델의 '단기 기억' 역할을 하는 키-값(KV) 캐시의 용량을 정확도 손실 없이 1/6로 압축하고 속도는 8배 향상시키는 점이 핵심이다. 쉽게 설명하자면 AI 챗봇은 답변을 만들 때 앞서 주고받은 문맥을 계속 참고해야 한다. 이때 이전 정보를 잠시 저장해두는 공간이 KV 캐시다.
"구글 '터보퀀트(Turbo Quant)' 기술이 단기적으로 메모리양을 줄이기 때문에 메모리 반도체 수요가 줄어든다고 생각할 수 있지만, 오히려 AI 시장이 폭발적으로 성장하면서 메모리반도체 수요가 유지될 것입니다. " 차세대 양자화 알고리즘 '터보퀀트(TurboQuant)' 논문에 참여한 한인수 카이스트(KAIST) 전기·전자공학부 교수는 27일 "해당 기술의 큰 흐름은 논문에 공개돼 있어 사전학습된 AI면 추가 학습없이 적용이 가능하다"면서 "논문이 공개될 4월쯤엔 구글에 이미 해당 기술이 상용화될 것"이라며 이같이 말했다. 글로벌 메모리 시장에 충격을 준 터보퀀트 기술은 AI 추론에 필요한 데이터를 6분의 1 수준으로 줄여 메모리 반도체 사용을 줄이는 기술이다. AI 추론 과정에서 가장 큰 장애물로 꼽히는 메모리 병목 문제를 효과적으로 해소했다. 한 교수는 터보퀀트 기술로 AI가 더 저렴해지고 빠르게 확산되는 동시에, 반도체 수요 역시 질적으로 고도화될 것으로 전망했다. 그는 "AI 모델의 성능이 커질수록 메모리 사용량이 급격히 증가하는 것이 가장 큰 한계로 지적되어 왔다"며 "이번 연구는 이러한 병목을 효과적으로 줄이면서도 정확도를 유지할 수 있는 새로운 방향을 제시했다"고 설명했다.
구글이 AI(인공지능) 최적화 기술인 터보퀀트를 내놓은 뒤 메모리 반도체 수요가 급감할 수 있다는 우려에 연일 반도체주들이 약세를 보인다. 증권가에서는 터보퀀트가 딥시크 모먼트와 유사하다며 단기적으로는 충격이 있을 수 있겠지만 중장기적으로 AI 총수요를 늘려 메모리 반도체에 긍정적일 것으로 내다봤다. 28일 거래소에서 삼성전자는 전 거래일 대비 400원(0. 22%) 하락한 17만9700원에 거래를 마쳤다. SK하이닉스도 1% 하락 마감했다. 지난 25일(현지시각) 구글 리서치는 메모리 사용을 대폭 줄이면서도 기존 AI 성능을 유지할 수 있는 터보퀀트 기술을 발표했다. 생성형 AI 대표 기술인 LLM(대규모언어모델)은 대화를 이어가기 위해 이전 대화 내용을 함께 처리해야해 메모리 사용량이 크게 늘어나는 구조였다. 하지만 구글에 따르면 터보퀀트 기술을 활용할 경우 LLM의 임시 기억장치인 KV캐시를 대폭 줄여 메모리 수요를 기존 대비 약 6분의 1 수준으로 낮출 수 있다. 최근 메모리 반도체 시장은 HBM(고대역폭메모리)뿐 아니라 레거시 메모리 병목현상까지 불거졌다.
구글이 AI(인공지능) 메모리 사용량을 압축하는 '터보퀀트(TurboQuant)'를 공개하면서 슈퍼사이클(초호황기)에 진입한 메모리 수요 둔화 우려가 나온다. 이로 인해 글로벌 메모리 3사(삼성전자·SK하이닉스·마이크론) 주가도 일시적으로 하락했다. 다만 업계에서는 해당 기술이 AI 활용을 확대해 오히려 반도체 시장 성장을 자극할 수 있다는 관측에 무게가 실리고 있다. 27일 관련업계에 따르면 구글의 터보퀀트 기술은 대규모 언어 모델(LLM)의 핵심 구조인 'KV 캐시'를 압축해 메모리 사용량을 최대 6분의 1수준으로 줄이면서도 성능은 유지하는 알고리즘이다. 구글이 지난해 4월 공개한 논문에서 소개된 기술이다. 대규모 언어 모델에서는 사용자와의 이전 대화 내용과 검색 결과 등을 KV 캐시로 저장해 다음 토큰 생성에 활용한다. 문제는 대화량이 늘어날수록 저장 데이터가 증가하면서 메모리 사용량도 급격히 확대된다는 점이다. 이 때문에 KV 캐시는 AI 시스템의 성능과 비용을 제약하는 대표적인 병목 요인으로 지목돼왔다.