단국대·서울시립대 공동 연구팀, 적대적 공격 탐지·보정 기술 개발
다중 시점 분석 'MAC' 기법 도입...고도의 신뢰성 요구되는 AI 산업 분야 활용

단국대학교는 최근 김선오 AI융합대학 컴퓨터공학과 교수 연구팀이 엄대호 서울시립대학교 전자전기컴퓨터공학부 교수 연구팀과 함께 AI의 신뢰도를 저하하는 '적대적 공격'(Adversarial Attack)에 대한 효과적인 방어 기술을 개발했다고 20일 밝혔다.
적대적 공격은 이미지나 데이터 등에 사람이 인지하기 어려울 정도로 미세한 변형을 추가해 AI가 전혀 다른 대상으로 인식하도록 만드는 방법이다. 이는 AI가 산출한 결과를 왜곡시켜 자율주행, 보안, 의료영상 등 높은 정확성과 신뢰성이 요구되는 분야에서 심각한 위험 요소로 지적됐다.
기존 AI 모델은 하나의 입력된 이미지에 의존해 판단을 내려 작은 교란에도 쉽게 잘못된 결과를 산출했다. 연구팀은 이러한 한계를 극복하기 위해 'MAC'(Multi-View Guided Adaptive Counterattack) 기법을 제안했다. MAC는 여러 이미지를 동시에 분석해 변형 및 오염 정도를 추정하고 이에 맞춰 결과를 보정하는 방식이다.
특히 기존 모델을 재학습하지 않고도 추론 단계에서부터 적용 가능하다는 강점이 있다. 추가적인 학습 비용 없이 추론 속도와 메모리 효율성을 확보해 안정적인 성능을 유지할 수 있다. 연구진은 다양한 데이터세트와 공격 환경에서 성능을 검증해 실제 활용 가능성도 입증했다.
김 교수는 "AI가 입력된 데이터를 다양한 시각에서 재검증하고 공격 정도에 따라 스스로 보정하도록 설계한 것이 이번 연구의 핵심"이라며 "AI의 안전성과 신뢰성이 중요한 자율주행, 보안, 의료영상 등 다양한 분야에서 활용될 것으로 기대한다"고 전했다.
한편 이번 연구는 컴퓨터 비전 분야 최고 권위의 국제 학술대회인 'IEEE/CVF Conference on Computer Vision and Pattern Recognition'(CVPR)에 채택됐으며, 오는 6월 학술대회에서 발표될 예정이다. 논문 제목은 'When CLIP Sees More, It Fights Back Harder: Multi-View Guided Adaptive Counterattacks for Test-Time Adversarial Robustness'다.