내년 1월 시행되는 인공지능(AI) 기본법 규제 대상인 고영향 AI와 고성능 AI 기준이 공개됐다. 이에 해당할 경우 투명성·안전성 확보조치를 해야한다. 그동안 AI업계에선 과학기술정보통신부가 법 위반사항 발견 시 사실조사하고 최대 3000만원의 과태료를 부과하는 조항이 '과도한 규제'라고 지적해왔다. 이에 정부는 사실조사는 진행하되, 과태료 부과는 1년 이상 계도기간을 운영키로 했다.
17일 과기정통부는 이같은 내용의 AI 기본법 하위법령 초안을 공개했다. 지난해 12월 AI기본법 제정 후 과기정통부는 민간전문가 80여명으로 구성된 하위법령 정비단을 운영해 시행령과 고시(2건), 가이드라인(5건)을 마련했다. 약 9개월간 의견 수렴만 74차례 진행했다. 내년 1월 세계 최초로 시행하는 법인 만큼 진흥과 규제 사이 균형점을 찾기 위해 노력했다는 설명이다.
고영향 AI란 생명·신체·기본권에 중대한 영향을 미치거나 위험 초래 우려가 있는 AI 시스템이다. 과기정통부가 고영향 AI로 판단하면 위험관리방안 및 이용자보호방안을 마련하고, 학습 데이터와 관리·감독자를 홈페이지에 공개해야 한다. AI 사업자는 고영향 AI를 이용한 제품·서비스 출시 전 영향평가도 진행해야 한다.
그동안 IT(정보기술)업계에선 고영향 AI 기준이 모호하다고 지적했다. 이에 과기정통부는 에너지·먹는물·보건의료 등 13개 분야의 판단기준을 가이드라인으로 자세히 제시했다. AI 기반의 완전 자동화된 시스템이 독립적으로 수질을 관리하면 고영향 AI에 해당하지만, AI 기반의 수질 모니터링 시스템은 제외된다. 후자의 경우 오류 발생시 관리자가 즉시 대응하는 구조이기 때문이다.
안전성 확보 조치를 해야하는 고성능 AI는 학습에 사용된 누적 연산량이 10의 26승 부동 소수점 연산 이상인 AI시스템으로 정의됐다. 이는 미국과 동일한 기준으로 EU(유럽연합·10의 25승)보다는 완화한 수준이다. 다만 현재 국내엔 이를 충족하는 고성능 AI가 없다. 과기정통부 관계자는 "현재 국내 서비스되는 모델은 없지만 조만간 출시될 것으로 예측한다"고 했다.
생성형 AI와 고영향 AI를 이용한 서비스는 이용자 사전고지 및 AI 결과물 표시를 해야한다. 딥페이크처럼 실제와 가상을 혼동하기 쉬운 콘텐츠는 이용자가 명확히 인식하는 방법으로 워터마크를 넣어야 하지만, 영화·게임 등 예술적·창의적 표현물엔 비가시적인 워터마크도 가능하다. 다만 서비스명이나 UI 등에서 생성형·고영향 AI 사용이 명확한 경우나 사업자 내부 업무 전용으로 활용하는 경우는 제외된다.
과태료 부과는 계도기간을 두고 유예하기로 했다. 구체적인 계도기간은 이해관계자와 논의한다는 방침이다. 다만 배경훈 과기정통부 장관이 '최소 1년 유예' 의지를 나타낸 만큼 2026년 이후에나 과태료가 부과될 전망이다. 과기정통부는 "AI 기업에 준비할 시간을 충분히 제공해 혼란을 최소화할 것"이라며 "과태료 계도기간은 규제 유예와 동일한 효과가 있을 것"이라고 말했다.
업계 반발이 컸던 사실조사 조항은 유지한다. 다만 위반사항에 대해 증거가 충분히 확보됐거나 신고·민원이 사적 이익 추구 등 부당한 목적으로 이뤄진 경우엔 사실조사 하지 않는다는 예외조항을 마련했다. 과기정통부는 다음달 초까지 이해관계자 의견을 수렴한 후 입법예고를 진행해 오는 12월 시행령 제정 및 가이드라인 완성을 추진한다는 방침이다.
김경만 과기정통부 인공지능기반정책관은 "글로벌 AI 3강을 목표로 하는 만큼 진흥이 우선이라고 생각하고 최소한의 규제를 마련했다"며 "다른나라 보다 앞서 강한 규제를 하지 않으려는 입장이다. 글로벌 동향을 살펴보며 이해관계자와 계속 논의할 것"이라고 말했다.