
AI(인공지능) 기술은 데이터를 활용해 패턴을 분석하고 미래를 예측하는 것을 넘어 이용자의 특정 요구에 따라 결과를 만들어내는 생성형 AI 기술로 발전했다. 인간의 고유 영역인 이미지, 영상, 음성, 텍스트 등 콘텐츠를 AI가 창조할 수 있게 된 것이다. 단 AI 기술의 발전은 한편으론 명예훼손, 차별·편향, 프라이버시 침해 등의 부작용을 동반한다. 이에 생성형 AI 이용자의 안전 및 권리를 보호할 필요성이 높아졌고 방송통신위원회가 지난 2월28일 '생성형 AI 이용자 보호 가이드라인'을 발표했다.
가이드라인은 이용자 보호를 위한 4대 원칙과 이를 실행하기 위한 6개 실행방식을 제시했다. 4대 원칙은 다음과 같다. 첫째, 인간 중심 원칙으로 인간의 존엄성을 보호하고 개인의 자유와 권리를 보장하며 인간이 적절히 통제하고 감독할 수 있어야 한다. 둘째, 투명성과 설명가능성으로 AI 시스템 이용에 따른 작동원리 및 결과가 이용자에게 미치는 영향 등을 이용자에게 알기 쉽게 설명해야 한다. 셋째, 안전성으로 서비스는 안전하게 작동해야 하며 예상치 못한 피해를 최소화하고 악의적으로 이용되거나 변경되지 않도록 해야 한다. 넷째, 공정성으로 이용자에게 차별 또는 불공정한 결과가 발생하지 않도록 해야 한다.
6개 실행방식은 다음과 같다. 첫째, 이용자 인격권 보호를 위해 인격권 침해요소를 발견하고 통제하는 알고리즘을 구축하고 내부 모니터링 체계 및 이용자 신고절차를 마련한다. 둘째, 결정과정을 알리기 위해 산출물이 AI로 생성됐음을 고지하고 생성형 AI의 결정과정에 대한 정보를 제공한다. 셋째, 다양성을 위해 차별·편향적 이용을 방지하기 위한 필터링 등 기능적 장치를 마련하고 편향적 정보생성 등 위험성에 대한 신고절차를 마련한다. 넷째, 입력데이터 수집·활용과정에서 이용자의 입력데이터를 수집하고 학습에 활용하는 데 대한 사전동의절차를 마련하며 기업 내 관련 책임자를 선정해 관리한다. 다섯째, 서비스 제공자 및 이용자의 책임범위를 정의하고 책임의 주체가 이를 명확히 인지하도록 안내하며 점검시스템 등 위험관리 체계를 마련한다. 여섯째, 부적절한 콘텐츠를 생성하거나 공유하지 않도록 안내하고 이용자의 입력과 산출물이 도덕적·윤리적 기준을 준수하는지 검토·관리한다.
가이드라인의 전체적인 내용은 그동안 논의된 AI 윤리규범을 대부분 포괄하고 상세한 지침을 제공한다는 점에서 의의가 있다. 다만 생성형 AI는 대화형 AI라는 점이 중요하다. 대화형 AI는 인간과 자연스럽게 상호작용할 수 있도록 설계된 기술로 이의 활용에선 AI 개발자, 제공자뿐만 아니라 이용자의 책임이 중요하다. 이용자가 어떤 데이터를 입력하고 어떤 방식으로 쓰는지가 우선적으로 AI의 기능과 품질을 좌우하기 때문이다.
이 책임의 주요 내용은 이용자가 제공하는 데이터를 AI가 저장·분석, 다시 활용하는 것을 방지하기 위해 민감한 개인정보를 제공하지 않을 것, AI의 답변을 전적으로 신뢰하기 전에 공식적인 자료나 전문가의 의견을 참고할 것, AI를 이용해 허위정보, 차별적이거나 혐오적인 콘텐츠를 생성하지 말 것, AI를 이용해 자동화된 악성 메시지나 스팸을 생성하는 등 비윤리적으로 활용하지 말 것 등이다.
앞으로 이용자의 책임을 제고하기 위한 리터러시 가이드도 마련돼야 할 것이다. 또한 가이드라인이 지난해 12월에 제정된 AI 기본법의 하위법령 제정 이전에 마련됐다는 점에서 동법과 충돌이 없는지도 충분히 검토돼야 한다. 이미 AI 기본법에 생성형 AI에 대한 사전고지, 표시의무, 딥페이크 고지 및 표시의무가 있는 상황에서 본 가이드라인이 중복규제가 될 우려가 있다. 또한 방통위가 추진 중인 AI이용자보호법이 다른 법들과 충돌하지 않도록 유의해야 할 것이다.