중국 AI벤처 딥시크(DeepSeek)가 발표한 오픈소스 R1 모델의 충격파가 거세다. 지난 1월20일 발표된 후 우리나라를 포함해 글로벌 빅테크와 반도체기업 주가가 급락했다. 특히 AI 빅테크면서 반도체를 장악한 엔비디아는 27일 하루에만 주가가 17% 급락하면서 시가총액이 850조원 급감했다.
왜 이렇게 급락했나. 시장에선 첫째, R1 모델의 높은 가성비(고성능·저비용)를 꼽는다. R1 모델은 오픈AI의 챗GPT(ChatGPT)와 맞먹는 성능이면서도 발표된 개발비용은 560만달러(약 80억원)로 챗GPT의 5%에 불과하다. LLM 모델에 수조 원을 쏟아부은 빅테크로선 그만큼 수익모델이 흔들릴 수밖에 없다. 둘째, 반도체 수요가 격감할 가능성이다. 딥시크는 LLM 훈련에 쓴 반도체칩 수(약 2000개)가 챗GPT의 8분의1로 적은 데다 사용한 칩도 엔비디아의 저가칩(H800)으로 고가칩(H100)의 절반가격(1만5000달러)이라고 밝혔다. 따라서 R1 모델이 수요증가로 챗GPT 등을 대체할 경우 반도체, 특히 고가칩(H100) 수요가 타격을 받을 것이란 얘기다.
물론 딥시크의 R1 모델은 창업자인 량원펑의 '비공개 전략'에 따른, 한마디로 '깜짝 발표'여서 검증이 필요하다는 목소리도 있다. 특히 미국은 딥시크가 오픈AI의 데이터를 무단으로 사용했을 가능성, 수출제한 대상인 반도체칩을 획득했을 가능성 등을 조사 중이다. 하지만 시장은 경쟁업체들의 주가급락에서 보여주듯 딥시크의 'AI패권의 게임체인저' 가능성에 보다 주목하는 분위기다. 일각에선 1957년 미국보다 먼저 인공위성을 쏘아올린 소련의 인공위성 이름을 따서 'AI의 스푸트니크 모멘트'라고도 한다.
그렇다면 미국의 강력한 대중 'AI와 반도체 규제' 속에서 어떻게 R1과 같은 고성능·저비용 모델을 만들 수 있었을까. 전문가들은 R1 모델의 R(Reinforcement)가 뜻하는 '강화학습방식'(Reinforcement Learning·RL)을 핵심요인으로 꼽는다. 이는 알고리즘의 효율성 제고를 통해 '질문 후에 답을 찾는' 방식으로 질문 전에 수많은 학습훈련을 거치는 오픈AI의 방식과 대비된다. 대량의 사전 훈련학습이 없는 만큼 데이터 필요량이 적고 비용도 오픈AI의 5%로 줄일 수 있었다고 본다. 다음은 미국 반도체 규제조치의 허점 활용이다. 2022년 조 바이든 정부의 대중 첨단 반도체 수출규제에서 초기 1년은 엔비디아의 고가칩(H100)이 포함됐지만 저가칩(H800)은 빠졌다. 이때 딥시크가 대량으로 구입했다는 것이다. 또 구입한 H800의 데이터 전송속도가 H100보다 느리지만 분산학습기법으로 극복했다는 의견이다.
관심은 딥시크가 미칠 영향이다. 개인적으론 미국의 대중 AI·반도체 규제가 더욱 강화되겠지만 R1 모델의 경쟁력이 반도체(하드웨어)가 아닌 알고리즘(소프트웨어)에 있는 만큼 실효성은 크지 않을 것이라고 본다. 반면 R1 모델을 오픈소스로 공개한 만큼 시장에선 AI 후발주자, 특히 자금이 부족한 AI벤처의 혁신과 다양한 수익모델 창출이 폭발적으로 늘 수 있다. 또 중국이 저비용·고성능 모델을 공개한 이상 미국도 동참하지 않을 수 없고 바야흐로 미중의 본격적인 AI 패권경쟁이 시작될 것이란 생각이다. 물론 이런 변화가 본격화하면 데이터 유출위험 때문에 보안산업의 중요성도 커질 것이다. 문제는 반도체가 무역흑자의 70%를 차지하는 우리나라다. 수출 타격에 트럼프 고관세까지 몰려오면 그만큼 위험도 커지기 때문이다. 산학연정(産學硏政)의 주도면밀한 협력과 정치권의 적극적인 대응을 기대한다.