"이스라엘 텔아비브 상공에 이란이 쏘아올린 미사일 수십발이 쏟아진다."
"세계 최고층 빌딩인 두바이의 부르즈 칼리파가 화염에 휩싸이고 거대한 연기 기둥이 치솟는다."
미국·이스라엘과 이란의 공방이 시작된 후 이 같은 장면이 묘사된 영상이 빠르게 퍼지고 있다. 그러나 인공지능(AI)이 만들어낸 가짜 콘텐츠다. 소셜미디어(SNS)상에서 진짜 이란의 공습 영상인 양 위장되거나 과장된 이미지들이 확산하면서 우려가 커지고 있다. 위험을 감지한 플랫폼들도 뒤늦게 대응에 나섰다.
AI를 이용한 영상 편집 기술 고도화로 정교한 조작 영상이 확산하자 엑스(X·옛 트위터)는 최근 'AI 비디오'라는 표시(라벨) 없이 AI가 생성한 무력 충돌 영상을 게시하는 창작자를 일시적으로 수익화 프로그램에서 배제하겠다고 발표했다. 창작자가 허위 영상으로 '조회수'와 '좋아요' 등을 많이 받더라도 이를 수익화하지 못하도록 한 것이다.
앞서 미국 뉴욕타임스(NYT)는 인공지능으로 생성된 영상이 이란 공습으로 인한 피해를 왜곡하는 현상에 대해 다뤘다. SNS상에서 확산한 텔아비브 미사일 폭격 및 두바이 부르즈 칼리파 화재 등의 영상이 교묘하게 조작된 영상임을 알리는 내용이다. NYT는 이란이 중동 전역에서 보복 공격을 감행한 후 거대한 폭발이나 과장된 파괴를 보여주는 인공지능 생성 이미지가 소셜 미디어에 퍼지고 있음을 지적했다.
영국 BBC도 이란 전쟁에 관한 AI 생성형 허위 정보가 수익화 도구로 활용되고 있다고 보도했다. 허위로 조작된 영상들이 많게는 수억건의 조회수를 기록하면서 온라인 창작자들에 의해 수익화되고 있다는 것이다.
최근 생성된 가짜 AI 영상들은 더욱 사실과 구분하기 어려워졌다. 실제 현장을 촬영한 뒤 AI로 정교한 화염과 연기 등을 덧입힌 '하이브리드 조작' 형태이기 때문. 과거에는 전문 장비와 인력에 의해 만들어졌던 영상들이 이제는 오픈AI의 '소라'나 구글의 '베오' 같은 모델로 쉽게 가능해진 측면도 있다. 여기에 영상 편집·합성 특화 AI 모델인 '런웨이'나 '피카' 같은 도구를 활용하면 제작은 훨씬 간편해진다.
BBC에 따르면 일부 이용자들이 X의 AI 챗봇 '그록'에게 조작된 전쟁피해 영상의 진위 여부를 물었다. 그러나 그록은 AI 생성 영상을 걸러내지 못한 걸로 전해졌다.
퀸즐랜드 공과대학교의 디지털 미디어 전문가인 티모시 그레이엄은 "예전에는 전문적인 영상 제작이 필요했던 것들이 이제는 AI 도구로 몇 분 만에 가능해졌다"며 "설득력 있는 합성 분쟁 영상을 만드는 장벽이 사실상 무너졌다"고 진단했다.
옥스퍼드 인터넷 연구소의 마흐사 알리마르다니 이란 전문 연구원은 X의 수익화 배제 조치 등에 대해 "(가짜 영상이) 큰 문제임을 인지했다는 주목할 만한 신호"라고 평가했다.