"AI, 믿어도 되나?"…한·노르딕 전문가들이 말한 '신뢰의 조건'

김미루 기자
2026.04.23 17:37

[2026 키플랫폼] 특별세션2 세션2 패널토론 - 인간-AI 협력 시대, 우리는 무엇을 준비해야 하는가: 거버넌스, 역량, 신뢰

탈 카차브 바르질라 AI 역량 센터 총괄 매니저가 23일 영등포구 콘래드 서울에서 머니투데이 주최로 진행된 '2026 키플랫폼' 특별세션2 '인간–AI 협력 시대, 우리는 무엇을 준비해야 하는가: 거버넌스, 역량, 신뢰' 패널토의에서 발언을 하고 있다. /사진=김창현 chmt@

한국, 북유럽 국가의 학계·산업계 전문가들이 인공지능(AI) 시대 인간과 AI의 협업 조건을 두고 기술적 완성도뿐 아니라 데이터, 기업 및 정부, 사용자 경험을 아우르는 종합적인 신뢰가 필요하다고 진단했다.

전치형 KAIST 과학기술정책대학원 부교수는 23일 오후 서울 여의도 콘래드호텔에서 진행한 '2026 키플랫폼'(K.E.Y. PLATFORM 2026)의 특별세션2 '인간–AI 협력 시대, 우리는 무엇을 준비해야 하는가: 거버넌스, 역량, 신뢰' 주제 토론에 좌장으로 참여해 "AI를 신뢰한다는 것은 시스템, 규제, 장치, 사용자 중 무엇을 믿는다는 것인지 다양한 해석이 가능하다"며 AI 신뢰도가 무엇을 의미하는지 질문했다.

바바라 와손 베르겐대 교수는 "신뢰란 시스템 자체가 명확하고 이해하기 쉬운지뿐 아니라 누가 만들고 제공하는지가 중요하다"며 "정부와 기업에 대한 신뢰, AI 관련 규정과 정책, 교육 현장에서의 활용에 대한 불신을 모두 포함한다"고 말했다.

양승준 울산과학기술원 인공지능대학원 교수는 AI 신뢰를 △하드웨어·네트워크·클라우드 등 시스템 자체의 안정성 △AI 모델에 투입되는 데이터의 신뢰성 △모델이 스스로 판단을 설명할 수 있는지 등 세 가지 차원으로 분류했다. 양 교수는 "전문가가 이를 토대로 안전하고 정확한 모델을 만들어야 한다"며 "이런 요소가 갖춰져야 정부와 산업계는 이를 안전하다고 믿고 수용할 것"이라고 말했다.

산업계 전문가들은 '오너십'을 신뢰의 핵심으로 봤다. 탈 카차브 바르질라 AI 역량센터 총괄 매니저는 "기업이 AI의 결과를 수용하려면 원하는 아웃풋을 낸다는 신뢰가 필요하다"며 "모델이 실제로 원하는 성능을 내는지 보여야 기업이 오너십을 갖는다"고 말했다. 시벨 톰바즈 에릭슨 코리아 대표도 "산업계에선 운영 주체와 관계 기업, 보안 수준 등 모든 차원에서 신뢰가 필요하다"며 "결국 이해관계자들의 신뢰를 얻어야 AI를 도입할 것"이라고 했다.

의료 분야 사례를 통해 데이터 투명성을 신뢰의 요건으로 설명하는 의견도 나왔다. 킴 노르만 안데르센 코펜하겐 비즈니스스쿨 교수는 "다빈치 로봇 수술의 경우 수백만 건의 데이터와 성과가 축적돼 있어 환자들이 의사보다 로봇 수술을 선호하는 경향이 있다"며 "인간보다 투명한 데이터가 제공되는 점이 신뢰 형성에 영향을 미친다"고 설명했다.

"AI 노예가 되지 말라"…비판적 사고가 경쟁력
양승준 울산과학기술원 인공지능대학원 교수(왼쪽 첫번째)가 23일 영등포구 콘래드 서울에서 머니투데이 주최로 진행된 '2026 키플랫폼' 특별세션2 '인간–AI 협력 시대, 우리는 무엇을 준비해야 하는가: 거버넌스, 역량, 신뢰' 패널토의에서 발언을 하고 있다. /사진=김창현 기자 chmt@

인간과 AI 협업의 성공 조건에 대해 탈 카차브 매니저는 "AI는 기업에 긍정적 와해를 가져오니 오픈 마인드를 가져야 한다"며 "AI가 기존 구조의 문제를 드러내고 효율성을 높일 수 있지만, 이를 관리하고 방향을 설정하는 것은 결국 사람의 역할"이라고 말했다. 그는 "장기적으로는 협업이 더 큰 이점을 가져올 것"이라고 덧붙였다.

국가 간 차이와 공통 과제로는 데이터와 규제가 핵심 변수로 꼽혔다. 전문가들은 각국의 규제 환경과 데이터 주권, 글로벌 빅테크 의존도가 AI 확산 속도를 좌우한다고 분석했다. 특히 데이터 공유 과정에서의 지식재산권 문제와 국가 보안 이슈는 향후 갈등 요인이 될 수 있다는 지적이다.

마지막으로 학계와 산업계는 공통으로 AI 시대 '비판적 사고'의 중요성을 강조했다. 에릭슨 대표는 "AI의 노예가 되지 않고 도구로 활용해야 한다"며 "인간은 인간만의 통찰력과 판단 능력이 있다"고 말했다.

이를 위해 와손 교수는 노르웨이 법학계가 로펌에서 배운 사례를 소개했다. 와손 교수는 "노르웨이 로펌은 1~2년 차 변호사가 AI 활용을 못 하게 하고 변호사처럼 사고하는 법을 학습한 뒤 3년 차에야 조금씩 사용하도록 한다"며 "비판적 사고력과 창의력은 계속 남을 테니 분야마다 자기만의 해법을 찾는 게 모두의 도전 과제일 것이고 대학도 그 과제를 풀어야 할 것"이라고 했다.

<저작권자 © ‘돈이 보이는 리얼타임 뉴스’ 머니투데이. 무단전재 및 재배포, AI학습 이용 금지>