ETRI, 'AI 신뢰성' 국제 표준 주도한다… "전 세계 AI 규칙 이끌 것"

박건희 기자
2025.08.19 10:03
ETRI 연구진이 인공지능 테스트베드 서버를 점검하며 레드팀 테스트 환경을 구성하고 있다. /사진=ETRI(한국전자통신연구원)

ETRI(한국전자통신연구원)가 AI(인공지능)의 위험을 감지하고 신뢰도를 높이는 기술의 국제 표준을 선점하기 위해 본격적으로 나선다.

ETRI는 AI 시스템의 위험을 미리 찾아내는 'AI 레드팀 테스팅' 표준과 소비자가 AI의 신뢰 수준을 쉽게 이해할 수 있는 '신뢰성 사실 라벨(TFL)' 표준을 국제표준화기구(ISO/IEC)에 제안했다고 19일 밝혔다.

AI 레드팀 테스팅은 AI 시스템이 얼마나 안전한지 공격적으로 탐색하며 시험하는 방법이다. 생성형 AI가 잘못된 정보를 내놓거나 사용자 보호장치를 피해 악용되는 상황을 미리 찾아낸다. ETRI는 이 분야 국제표준인 'ISO/IEC 42119-7'을 주도하며 의료, 국방, 금융 등 분야에 공통으로 적용할 수 있는 국제 공통 시험 절차와 방법을 만든다.

서울아산병원과 협력해 의료 전용 레드팀 평가 방법론을 개발 중이며, 첨단 AI 기술을 적용한 디지털의료제품에 대한 레드팀 시험 체계를 만들어 실증 시험을 진행할 계획이다. 또 STA, 네이버(NAVER), 업스테이지, 셀렉트스타, KT, LG AI연구원 등 주요 기업과 협의체를 구성해 AI 레드팀 국제 표준화를 위한 협력을 강화할 계획이다.

더불어 내달 4~5일 서울 동대문 노보텔 호텔에서 국내 첫 '첨단 AI 디지털의료제품 레드팀 챌린지 및 기술 워크숍'을 개최할 예정이다. 의료인, 보안전문가, 일반 시민이 AI의 편향과 위험성을 함께 점검하는 행사다.

ETRI는 '신뢰성 사실 라벨' 국제 표준에도 도전한다. AI 시스템이 얼마나 신뢰할 수 있는지 한눈에 알 수 있도록 시각화하는 것으로 식품의 영양성분표처럼 소비자에게 AI에 대한 정보를 투명하게 제공한다.

ETRI는 'ISO/IEC 42117' 시리즈 표준 개발을 주도하며 이는 기업이 스스로 정보를 제공하거나 제3기관이 검증, 인증하는 방식으로 운영할 수 있다. 향후 AI의 탄소 배출량과 같은 ESG(환경·사회·지속가능성 평가 기준) 요소도 반영하는 방안을 검토 중이다.

이승윤 ETRI 표준연구본부장은 "AI 레드팀 테스팅과 신뢰성 라벨은 미국, EU(유럽연합) 등 각국의 AI 규제정책에 포함된 핵심 기술 요소"라며 "이 국제 표준은 전 세계 AI 시스템의 안전과 신뢰성을 평가하는 공통 기준이 될 것"이라고 전망했다.

ETRI는 "두 표준은 정부가 추진하는 '소버린 AI', 'AI 3강 도약' 전략과 맞닿아 있다"며 "단순한 기술력 확보를 넘어 글로벌 AI 규칙을 만드는 주도권 경쟁에 실질적인 기여를 할 수 있을 것"이라고 했다.

<저작권자 © ‘돈이 보이는 리얼타임 뉴스’ 머니투데이. 무단전재 및 재배포, AI학습 이용 금지>

관련 기사