노용만 전기및전자공학부 교수 연구팀이 딥러닝 신경망에 나타나는 적대적 공격을 막는 알고리즘을 개발했다. (사진=KAIST, 셔터스톡)
노용만 전기및전자공학부 교수 연구팀이 딥러닝 신경망에 나타나는 적대적 공격을 막는 알고리즘을 개발했다. (사진=KAIST, 셔터스톡)

한국과학기술원(KAIST, 총장 이광형)은 노용만 전기및전자공학부 교수 연구팀이 딥러닝 신경망에 나타나는 '적대적 공격'을 막는 알고리즘을 개발했다고 15일 밝혔다. 향후 국방 감시정찰, 보안, 자율주행 분야에 유용할 전망이다.

적대적 공격이란, 공격자가 딥러닝에 검출되지 않기 위한 특정 패턴을 입력 이미지에 의도적으로 주입해 잘못된 예측 결과를 내놓는 공격이다. 

노용만 교수 연구팀은 물리적인 환경에서 해당 공격 원리를 역이용했다. 물체 검출 시 딥러닝 모델이 옳은 예측 결과만 내리도록 방어 프레임을 짰다.

이번 프레임은 딥러닝이 적대적 패턴과 함께 학습하도록 한다. 해당 과정을 반복하면 딥러닝이 적대적 패턴을 경쟁상대로 인식하고, 공격에 대해 높은 방어성능을 지니는 원리다.

 이번에 방어 프레임은 인리아(INRIA) 검출 벤치마크 데이터셋에서 기존 방어 알고리즘 대비 평균 31.6% 정확도가 올랐다. (사진=KAIST)
이번에 방어 프레임은 인리아(INRIA) 검출 벤치마크 데이터셋에서 기존 방어 알고리즘 대비 평균 31.6% 정확도가 올랐다. (사진=KAIST)

연구팀은 이를 통해 방어성능을 조절할 수 있음을 확인했다. 이번에 개발한 방어 프레임은 인리아(INRIA) 검출 벤치마크 데이터셋에서 기존 방어 알고리즘 대비 평균 정확도가 31.6% 더 오른 성과다.

해당 알고리즘은 실시간 물체 탐지 시, 모델 재학습 없이 적대적 패턴 공격을 방어할 수도 있다. 

노용만 교수는 "이번에 개발한 방어 기술은 국방이나 보안 분야에서 실용적인 적대적 방어를 제시하는 데 의의가 있다"며 "향후 국방 감시정찰, 보안, 자율주행 분야에 적용할 수 있을 것이다"고 밝혔다.

이번 연구는 방위사업청과 국방과학연구소 지원으로 한국과학기술원 미래국방 인공지능 특화연구센터에서 수행했다.

김미정 기자 kimj7521@aitimes.com

관련기사
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지