급속히 발전한 AI(인공지능)가 인간 통제를 벗어나 전쟁을 일으킬 수 있다는 우려가 제기되는 가운데, 이는 현실과 동떨어졌다는 주장 나왔다.
최근 미국 싱크탱크 랜드연구소는 'AI가 전쟁을 일으킬 수 있다는 6가지 주장과 그렇지 않은 이유(Six Ways AI Could Cause the Next Big War, and Why It Probably Won't)'란 제목의 보고서를 통해 "발전된 AI 기술이 직접적으로 전쟁을 촉발할 위험은 낮으며 국가의 정치적 선택이나 제도적 관리 여부에 따라 전쟁 가능성에 기여하거나 혹은 억제하는 역할을 할 수 있다"고 밝혔다.
보고서는 AI가 글로벌 안보 지형에 미칠 영향과 전쟁 가능성을 평가하기 위해 △AI가 국가 간 힘의 균형을 변화시켜 전쟁 유인 제공 △적대국의 빠른 AI 발전을 사전에 막으려는 예방 전쟁 가능성 △AI가 전쟁 비용을 줄여 전쟁의 문턱을 낮추는 역할 △AI가 초래한 사회∙경제적 혼란 속에 대중의 관심을 외부로 돌리려는 지도자의 선택 △인간 통제를 벗어난 AI의 자율적 선택 △AI가 전달한 왜곡된 정보에 의한 리더의 잘못된 의사결정 등 6가지 가설을 분석했다.
보고서는 이러한 6개의 가설을 평가하면서 발전된 AI 기술이 국가 간 전쟁을 촉발시키는 직접적인 원인이 될 수 없다고 주장했다.
첫 번째 가설처럼 AI가 전쟁을 일으킬 만한 세력의 균형 변화를 초래하기 위해선 기존 재래식 또는 핵무기를 초월한 월등한 우위를 제공해야 한다고 설명했다. 그러나 AI의 기술적 우위가 실제 군사력이나 국력의 우위로 어떻게 평가될지 불확실하기 때문에 이것만으로 국가가 타국을 상대로 한 전쟁을 결정하긴 어렵다고 분석했다.
예방 전쟁 가능성에 대해서는 상대방의 군사력이나 국력에 미치는 AI 기술 수준과 역량을 객관적으로 평가하기가 불가능해 선제 공격이 정당화되기 어렵다는 반론을 제시했다. 또 예방 전쟁은 상대방의 기술 발전을 의미있게 억제할 뿐만 아니라 전쟁을 통한 엄청난 편익이 기대되는 조건 하에서 이뤄진다는 점에서 현실화하기 매우 어렵다고 부연했다.
전쟁 비용과 관련해서는 AI가 로봇 등을 통해 인간 병사를 대체하거나 AI가 적용된 시스템과 무기체계가 월등히 저렴해야 하는데 오히려 첨단 시스템에 대한 의존도가 높아지면서 기존 재래식 무기보다 비용이 커질 수 있다고 평가했다.
다음으로 AI가 사회적 혼란과 경제적 불평등을 야기할 수도 있지만 반대로 높은 생산성을 바탕으로 경제적, 사회적 안정을 가져올 수 있다고 강조했다. 이는 불만이나 갈등을 오히려 낮출 수 있어 대중의 관심을 외부로 돌리기 위한 지도자의 선택도 현실적이지 않다는 설명이다.
AI 스스로 전쟁을 시도할 수 있다는 우려에 대해서는 AI가 인간보다 잘못된 판단을 할 가능성이 크다는 결정적 증거가 없고, 고도화된 AI는 보다 신중하게 위기 상황을 판단할 수 있다고 봤다.
마지막으로 리더의 오판에 AI가 기여하려면 선제공격에 대한 전략적 판단을 제공해야 하는데 고도로 발달한 AI가 인간에 비해 전쟁이나 갈등을 선호할 것이라는 근거는 여전히 부족하다는 주장이다. 적절한 설계와 데이터, 검증 체계를 갖춘 AI는 판단 오류를 줄이고, 위기 상황을 정교하게 해석하도록 도움을 줄 수 있다.
보고서는 본질적으로 전쟁이란 기술이 아닌 인간의 정치적 결단의 산물이며 AI는 인간의 결정을 둘러싼 환경에 영향을 미치는 하나의 변수에 불과하다고 결론 내렸다.
보고서는 "AI의 발전이 불확실성과 혼란을 초래할 수도 있지만 동시에 갈등을 억제하고 오판을 줄일 수 있는 기회도 함께 제공한다"면서 "핵심은 지도자들이 어떻게 AI를 설계하고 관리하며 활용하느냐에 있으고, 결국 전쟁은 AI가 아닌 인간의 선택에 달려 있다"고 강조했다.