ETRI(한국전자통신연구원)가 AI(인공지능)의 위험을 감지하고 신뢰도를 높이는 기술의 국제 표준을 선점하기 위해 본격적으로 나선다.
ETRI는 AI 시스템의 위험을 미리 찾아내는 'AI 레드팀 테스팅' 표준과 소비자가 AI의 신뢰 수준을 쉽게 이해할 수 있는 '신뢰성 사실 라벨(TFL)' 표준을 국제표준화기구(ISO/IEC)에 제안했다고 19일 밝혔다.
AI 레드팀 테스팅은 AI 시스템이 얼마나 안전한지 공격적으로 탐색하며 시험하는 방법이다. 생성형 AI가 잘못된 정보를 내놓거나 사용자 보호장치를 피해 악용되는 상황을 미리 찾아낸다. ETRI는 이 분야 국제표준인 'ISO/IEC 42119-7'을 주도하며 의료, 국방, 금융 등 분야에 공통으로 적용할 수 있는 국제 공통 시험 절차와 방법을 만든다.
서울아산병원과 협력해 의료 전용 레드팀 평가 방법론을 개발 중이며, 첨단 AI 기술을 적용한 디지털의료제품에 대한 레드팀 시험 체계를 만들어 실증 시험을 진행할 계획이다. 또 STA, 네이버(NAVER), 업스테이지, 셀렉트스타, KT, LG AI연구원 등 주요 기업과 협의체를 구성해 AI 레드팀 국제 표준화를 위한 협력을 강화할 계획이다.
더불어 내달 4~5일 서울 동대문 노보텔 호텔에서 국내 첫 '첨단 AI 디지털의료제품 레드팀 챌린지 및 기술 워크숍'을 개최할 예정이다. 의료인, 보안전문가, 일반 시민이 AI의 편향과 위험성을 함께 점검하는 행사다.
ETRI는 '신뢰성 사실 라벨' 국제 표준에도 도전한다. AI 시스템이 얼마나 신뢰할 수 있는지 한눈에 알 수 있도록 시각화하는 것으로 식품의 영양성분표처럼 소비자에게 AI에 대한 정보를 투명하게 제공한다.
ETRI는 'ISO/IEC 42117' 시리즈 표준 개발을 주도하며 이는 기업이 스스로 정보를 제공하거나 제3기관이 검증, 인증하는 방식으로 운영할 수 있다. 향후 AI의 탄소 배출량과 같은 ESG(환경·사회·지속가능성 평가 기준) 요소도 반영하는 방안을 검토 중이다.
이승윤 ETRI 표준연구본부장은 "AI 레드팀 테스팅과 신뢰성 라벨은 미국, EU(유럽연합) 등 각국의 AI 규제정책에 포함된 핵심 기술 요소"라며 "이 국제 표준은 전 세계 AI 시스템의 안전과 신뢰성을 평가하는 공통 기준이 될 것"이라고 전망했다.
ETRI는 "두 표준은 정부가 추진하는 '소버린 AI', 'AI 3강 도약' 전략과 맞닿아 있다"며 "단순한 기술력 확보를 넘어 글로벌 AI 규칙을 만드는 주도권 경쟁에 실질적인 기여를 할 수 있을 것"이라고 했다.