"사람 표정 보고 감정도 읽는다"…오픈AI 'GPT-4o' 공개

"사람 표정 보고 감정도 읽는다"…오픈AI 'GPT-4o' 공개

권성희 기자
2024.05.14 08:29

속도 2배, 비디오 기능 등 개선된 새 AI 모델 'GPT-4o' 공개…PC용 버전도 선보여

챗GPT 이미지 /로이터=뉴스1
챗GPT 이미지 /로이터=뉴스1

오픈AI가 13일(현지시간) 사용자 인터페이스를 업데이트하고 새로운 AI(인공지능) 모델인 GPT-4o와 데스크톱(PC) 버전의 챗GPT를 공개했다. GPT-4o에서 o는 옴니(omni: 모든)를 뜻한다.

오픈AI의 최고기술책임자(CTO)인 미라 무라티는 이날 실시간 스트리밍 행사에서 이번 업데이트를 통해 오픈AI의 무료 사용자를 포함한 모든 사용자들에게 GPT-4를 제공한다고 밝혔다. 이에 따라 이전에는 유료 사용자에게만 제공됐던 기능이 모든 사람들에게 열리게 됐다.

무라티는 새로운 AI 모델인 GPT-4o에 대해 텍스트와 비디오, 오디오 기능이 개선돼 "훨씬 더 빨라졌다"고 말했다. GPT-4o가 GPT-4 터보보다 2배 빠른데 비용은 절반만 든다는 설명이다. 또 "사용 편의성 측면에서 우리가 진정으로 큰 진전을 이룬 것은 이번이 처음"이라고 설명했다.

그는 GPT-4o를 통해 챗GPT가 50개 언어를 향상된 속도와 품질로 처리할 수 있게 됐다고 밝혔다. 또 개발자들이 애플리케이션을 구축할 수 있도록 GPT-4o를 오픈AI의 API(애플리케이션 프로그램 인터페이스)를 통해서도 제공할 예정이라고 말했다. 아울러 궁극적으로 사용자들이 챗GPT로 영상 채팅이 가능하도록 할 계획이라고 밝혔다.

이날 오픈AI는 챗GPT의 새로운 음성 기능을 선보이는 데 집중했다. 시연에 따르면 챗GPT는 마치 사람처럼 사용자와 대화하며 잘못된 컴퓨터 코드를 수정하거나 실시간으로 언어 번역을 제공하는 등 복잡한 문제를 해결해줬다. 또 챗GPT는 사용자와 실시간 카메라 뷰를 공유해 사용자가 보는 것에 반응할 수 있었고 사람의 표정을 보고 감정을 유추해낼 수 있었다.

데스크톱 버전을 포함한 오픈AI의 모든 업데이트는 앞으로 몇 주일 내에 사용자들에게 제공될 예정이다.

로이터는 지난 10일 마이크로소프트의 지원을 받고 있는 오픈AI가 이날 행사에서 AI 기반의 검색 엔진을 공개할 것이라고 보도했지만 오픈AI는 검색 엔진에 대해선 언급도 하지 않았다.

하지만 맥쿼리 에쿼티 리서치의 애널리스트인 프레데릭 해븐메이어는 이날 보고서를 통해 "오픈AI의 검색 엔진 진출은 할 것이냐, 하지 않을 것이냐의 문제가 아니라 언제 할 것이냐의 문제"라고 밝혔다. 오픈AI가 검색 엔진을 출시하면 알파벳의 구글과 직접적으로 경쟁하게 된다.

한편, 무라티는 이날 행사의 마무리를 오픈AI의 기술을 구현하는 데 필요한 GPU(그래픽 처리장치)를 제공한 젠슨 황 엔비디아 최고경영자(CEO)와 엔비디아에 대한 감사로 장식했다.

그는 "놀라운 오픈AI 팀에 감사드리며 오늘 이 행사가 가능하도록 최첨단 GPU를 제공한 젠슨과 엔비디아 팀에게도 감사의 인사를 전한다"고 말했다.

<저작권자 © ‘돈이 보이는 리얼타임 뉴스’ 머니투데이. 무단전재 및 재배포, AI학습 이용 금지>

권성희 기자

안녕하세요. 국제부 권성희 기자입니다.

공유