['터보퀀트' 위기 vs 기회] ②

인공지능(AI) 붐을 타고 고공행진을 이어가던 메모리 반도체 종목들이 구글이 발표한 새로운 데이터 압축 기술 '터보퀀트(TurboQuant)'의 직격탄을 맞았다. 이 기술이 인공지능(AI)의 메모리 부담을 획기적으로 낮춘다는 소식에 메모리 수요 감소 우려가 번지면서다.
하지만 이 같은 시장 반응이 과도하다는 견해도 적잖다. 효율성을 개선되면 수요가 늘어나는 이른바 '제번스의 역설'을 간과하고 있다는 지적이다. '제번스의 역설'은 19세기 증기기관의 효율이 개선되자 석탄 사용이 줄어들기는커녕 산업 전반으로 활용이 확산하면서 석탄 수요가 폭발적으로 늘었던 데서 착안했다.
구글은 24일(현지시간) X를 통해 터보퀀트 기술을 소개했다. AI 모델의 '단기 기억' 역할을 하는 키-값(KV) 캐시의 용량을 정확도 손실 없이 1/6로 압축하고 속도는 8배 향상시키는 점이 핵심이다.
쉽게 설명하자면 AI 챗봇은 답변을 만들 때 앞서 주고받은 문맥을 계속 참고해야 한다. 이때 이전 정보를 잠시 저장해두는 공간이 KV 캐시다. 대화가 길어질수록 이 공간이 빠르게 커지고, 결국 GPU 메모리와 서비스 운영 비용 부담도 함께 커진다. 구글은 터보퀀트를 통해 KV 캐시 메모리 사용량을 획기적으로 줄일 수 있다고 설명했다.
시장은 즉각 반응했다. 이란 전쟁 불확실성이 이어지는 가운데 메모리 수요 감소 우려가 겹치면서 삼성전자, SK하이닉스는 물론 미국 마이크론, 웨스턴디지털, 샌디스크 등 반도체 관련주가 동반 급락했다. AI가 메모리를 1/6로 쓰면 반도체 주문도 그만큼 줄어들 거란 논리가 공포를 키웠다. 아마존과 구글 등 세계 4대 하이퍼스케일러는 데이터센터 구축을 위해 6500억달러 투자 계획을 밝혔다. 투자 비용의 상당 부분은 엔비디아의 AI 가속기와 관련 메모리 반도체에 투입될 전망이다.
클라우드플레어의 매슈 프린스 CEO는 CNBC를 통해 터보퀀트를 "구글판 딥시크"라고 평가했다. 지난해 중국 딥시크가 효율성 혁신으로 기술주 급락을 촉발했던 상황을 빗댄 것이다. 그는 "AI 추론은 속도, 메모리, 전력, 자원 공유 효율 등 모든 측면에서 아직 개선 여지가 크다"고 말했다.
시장이 공포에 질린 것과 달리 전문가들은 터보퀀트 기술이 상용화할 경우 메모리 업계와 AI 산업 전반에 호재가 될 거라고 본다.
모건스탠리의 숀 킴 애널리스트는 보고서에서 "AI 모델이 훨씬 적은 메모리로 구동될 수 있다면 AI 추론 비용이 낮아질 것"이라면서 "이는 AI 도입의 수익성(ROI)을 높여 결과적으로 더 많은 기업이 더 공격적으로 AI 인프라를 구축하게 만들 것"이라고 분석했다.
이어 그는 "터보퀀트는 투자 수익률 측면에서 하이퍼스케일러에 긍정적"이라고 평가했다. 또한 "토큰당 비용이 낮아지면 제품 채택 수요가 증가할 수 있으므로 장기적으로 메모리 제조업체에도 도움이 될 수 있다"고 덧붙였다. '제번스의 역설'이 AI 산업에서도 그대로 작동할 거란 해석이다.
독자들의 PICK!
제번스의 역설은 19세기 영국 경제학자 윌리엄 스탠리 제번스가 제시한 개념이다. 기술 발전으로 자원 이용 효율이 높아지면 비용이 낮아지고 활용 범위가 확대되면서 오히려 전체 소비량이 증가하는 현상을 뜻한다.
JP모건와 시티그룹 역시 터보퀀트가 단기적으로 차익 실현을 위한 재료가 될 수 있지만 당장 메모리 수요에 위협이 될 만한 요소는 아니라고 지적했다.
블룸버그는 지난해 초 딥시크 패닉에도 AI 시장의 판이 더 커졌다는 점을 지적했다. 또 터보퀀트 연구 초안은 이미 지난해 4월에 등장해 완전히 새로운 게 아니라고도 했다.
포브스는 "터보퀀트 발표 후 시장의 혼란은 대규모 AI 인프라 투자 확대를 둘러싸고 AI 버블이나 수요 불확실성에 대한 우려가 그만큼 크다는 사실을 보여준다"고 짚었다.