
세계 최초의 '추론 모델'(reasoning model)이라는 인공지능(AI)의 진보된 형태가 지난해 9월, 미국 기업 오픈AI에 의해 공개됐다.
'o1'("오원"으로 읽음)이라 불리는 이 모델은 '사고 과정'(chain of thought)을 활용해 과학과 수학의 복잡한 문제를 해결하며, 문제를 구성 요소별로 나누고 여러 접근법을 시험한 뒤 최종 결론을 도출한다.
이 기술의 공개 이후, 이를 모방하려는 경쟁이 촉발됐다. 지난 12월, 구글은 'Gemini(제미나이) Flash Thinking'이라는 자체 추론 모델을 발표했다. 이에 맞서 오픈AI는 며칠 뒤 'o1'의 업그레이드 버전인 'o3'을 내놓았다.
그러나 막대한 자원을 투입했음에도 불구하고 구글이 오픈AI를 가장 먼저 따라한 기업은 아니었다.
'o1'이 공개된 지 불과 석 달도 지나지 않아, 중국의 전자상거래 대기업 알리바바가 자사의 챗봇 'Qwen'의 새 버전 'QwQ'를 출시하며 같은 '추론' 기능을 적용했다.
알리바바는 공식 블로그에서 "생각한다는 것은 무엇인가, 질문하고 이해한다는 것은 무엇인가"라는 철학적인 질문과 함께, 해당 모델을 무료로 사용할 수 있는 링크를 제공했다.
이에 앞서 중국 기업 딥시크(DeepSeek)는 'R1'이라는 추론 모델의 '프리뷰' 버전을 공개한 바 있다. 미국 정부가 중국의 인공지능 산업을 견제하려는 노력을 기울였음에도 불구하고, 중국 기업 두 곳이 미국 기업과의 기술 격차를 불과 몇 주 단위로 좁히는 데 성공한 것이다.
추론 모델뿐만 아니라, 대형언어모델(LLM) 분야에서도 중국 기업들은 선두 그룹에 있다.
지난해 12월, 딥시크는 새로운 대형언어모델 'V3'를 발표했다. 이 모델의 크기는 약 700기가바이트로, 일반용 하드웨어에서는 구동할 수 없을 정도로 방대하며, 6850억 개의 파라미터(parameters)를 보유하고 있다.
개별 규칙인 파라미터는 합쳐져 거대한 인간 뇌신경 같은 뉴럴(neural) 네트워크를 구성하는데, 그동안 무료로 다운로드할 수 있었던 어떤 모델보다도 규모가 컸다. 페이스북의 모회사 메타(Meta)가 지난해 7월 출시한 대표적인 대형언어모델 'Llama 3.1'의 파라미터 수는 4050억 개에 불과했다.
독자들의 PICK!
딥시크의 대형언어모델은 단순히 서구권 경쟁 모델보다 크기만 한 것이 아니다. 성능 면에서도 구글과 오픈AI의 독점 모델을 제외하면 어깨를 겨눌 경쟁 모델이 없는 것으로 평가된다.
AI 코딩 플랫폼 에이더(Aider)의 창립자인 폴 고티에(Paul Gauthier)는 이 모델을 자신의 코딩 벤치마크 테스트에 적용한 결과, 'o1'을 제외한 모든 경쟁 모델을 능가하는 성능을 보였다고 밝혔다.
'크라우드소싱 기반의'(crowdsourced) AI 챗봇의 성능을 평가하는 'lmsys' 랭킹에서도 이 모델은 전체 7위에 올랐다. 이는 오픈소스 모델 가운데 가장 높은 급이며, 구글과 오픈AI를 제외한 모든 기업이 출시한 모델 중에서도 최고 성적이다.
(계속)
PADO 웹사이트(https://www.pado.kr)에서 해당 기사의 전문을 읽을 수 있습니다. 국제시사·문예 매거진 PADO는 통찰과 깊이가 담긴 롱리드(long read) 스토리와 문예 작품으로 우리 사회의 창조적 기풍을 자극하고, 급변하는 세상의 조망을 돕는 작은 선물이 되고자 합니다.