안면인식 기술을 둘러싸고 알고리즘의 편향성과 사생활 침해 등 논란이 지속적으로 제기되는 가운데 안면인식 알고리즘을 속이는 인공지능(AI) 기술이 나왔다. 안면인식을 방지하기 위해 사진 속 얼굴을 식별할 수 없도록 흡사한 닮은꼴을 만들어내는 것이다. 이제 자신의 온라인상 사진이 안면인식 회사나 스토커에게 노출될 것을 우려하는 사람들은 한시름 덜게 될지도 모르겠다.
26일(현지시간) IT 전문매체인 TNW는 생성적 적대 신경망(GAN) 기술을 이용해 프로필 사진을 가짜 사진으로 변환해주는 무료 AI 툴 ‘Anonymizer’를 소개했다. 이 AI 툴은 ‘제너레이티드 미디어(Generated Media)’이라는 한 스타트업 손에서 탄생했다. 새로운 캐릭터를 만들어내는 비디오 게임 개발자부터 정보원의 신원을 보호해야 하는 기자에 이르기까지 다양한 고객층을 대상으로 AI 생성 이미지 서비스를 제공하는 기업이다.
AI 시스템은 제너레이티드 미디어 스튜디오에서 촬영한 수많은 사진들을 기반으로 훈련을 받았다. 해당 사진들은 생성적 적대 신경망(GAN)에 사용된다. GAN은 두 개의 인공 신경망, 즉 생성기(generator)와 판별기(discriminator)가 상호 경쟁하는 동시에 서로를 훈련시키면서 실제와 가까운 새로운 이미지‧영상‧음성 등을 자동으로 만들어내는 AI 기계학습 방법론의 하나다.
사용 방법은 매우 간단하다. 정면을 바라보고 있는 선명하게 찍힌 얼굴 사진을 업로드하면 끝. 그러면 AI 시스템이 알아서 나와 닮은 20명 정도의 도플갱어 사진을 만들어낸다. 얼굴 이미지 생성 후 추가적인 기계학습(ML) 과정을 통해 결함을 찾아 제거한다. 이제 내 마음에 드는 닮은 꼴을 골라 SNS 프로필 사진 대신 사용하기만 하면 된다.
이 AI 툴을 상업적 목적으로 이용하려면 라이선스를 구매해야 한다. 그러나 개인 용도로는 이용 약관을 위반하지 않는 한 무료로 사용 가능하다.
그런데 TNW에 따르면 해당 AI 툴을 테스트해본 결과 AI로 생성된 이미지 가운데 다수가 실제 얼굴과 그다지 닮지 않은 것으로 나타났다. 심지어 어린아이처럼 보인다는 반응도 나온다. 제너레이티드 미디어도 현재로서는 해당 시스템이 아직 많이 부족하다는 사실을 인정했다.
AI로 일관성 있는 콘텐츠를 생성하려면 시스템 훈련에 활용 가능한 학습 데이터가 필요하다. 이를 위해서는 방대한 양의 다양한 모델을 확보해야 하고 시간도 걸린다는 게 회사 측의 설명이다.
일각에서는 이 같은 AI 툴이 안면인식 시스템을 피할 수 있는 유용한 방안이 될 수 있다고 말한다. 그러나 다른 한편에서는 회사 측이 이 기술을 명예 훼손이나 사칭, 사기 등 불법적 용도로 사용하는 것을 금하고는 있지만 충분히 범죄에 악용될 가능성이 있다고 우려를 표했다.
한편 이처럼 안면인식 기술의 문제점을 풀어가려는 움직임이 본격화되고 있다. 최근에는 미 시카고대 연구진이 AI 기술을 이용해 얼굴 사진에 안면인식 알고리즘을 적용해도 누구인지 인식하지 못하도록 무력화시키는 소프트웨어 ‘포크스(Fawkes)’를 선보인 바 있다.
[관련기사] "얼굴인식을 막아라"...美 시카코대, 얼굴인식 막는 '클로킹' 기술 개발
[관련기사] [In-Depth 리포트] 말많은 안면인식기술, 편향성 논쟁 넘어 글로벌 시장 형성할 것인가
