시장조사기관 가트너가 앞으로 AI가 초래할 윤리·사회 문제에 관한 연구 보고서를 발표했다. 25일(현지시간) 테크리퍼블릭이 보도한 바에 따르면 가트너는 ‘2021년 예측: AI가 사람과 사회에 미치는 영향’이라는 제목의 보고서를 통해 향후 2025년까지 AI로 인해 발생할 각종 문제를 경고했다.
보고서는 가트너 내 애널리스트 5명이 작성했다. 이들은 특히 ‘생성적 AI’ 위험성에 주목했다. 생성적 AI는 사전 훈련된 전이학습을 통해 텍스트를 비롯 오디오, 이미지 등을 새로운 콘텐츠로 만들어내는 모델이다. 가짜뉴스와 초상권 등 문제로 더 많이 알려져 있는 딥페이크도 이에 해당한다.
가트너는 이 딥페이크 기술이 앞으로 2023년부터 금융업계를 위협할 것이라고 전망했다. 보고서는 “자동화 프로그램으로 타인 계정에 접속해 돈을 훔치는 ‘계좌 탈취 사건’이 심심찮게 일어날 것”이라고 밝히고 있다. 이어 “초현실적인 콘텐츠를 제작할 수 있는 생성적 AI 때문에 많은 사람들이 눈을 뜬 채 속는 등 큰 혼란이 예상된다”고 덧붙였다.
이를 포함해 가트너는 다섯 가지 핵심 예측을 내놓았다.
▲ 2025년까지 사전 훈련된 AI 모델은 전 세계 IT 기업 중 1%에만 집중될 것.
▲ 2023년부터는 전체 금융 사기 범죄 20%에 딥페이크 기술이 활용될 것.
▲ 2024년까지 전체 AI 공급업체 중 60%가 소프트웨어에 오용·유해를 감소하기 위한 조치를 포함할 것.
▲2025년까지 세계 10% 정부가 AI를 훈련시키기 위해 실제 인구분포와 유사한 합성집단(Synthetic Populations)을 사용할 것.
▲ 2025년까지 직장 내 대화 75%를 AI가 분석·기록할 것.
가트너는 이같은 핵심 예측을 발표하며 “각각의 예측은 윤리적 우려, AI 오남용 가능성, 직장 내 프라이버시가 상실된 암울한 미래 시대를 그리고 있다”고 표현했다. 그러면서 “세계 IT를 선도하는 기업일수록 이러한 우려에 신속하게 적응할 준비가 되어 있어야 한다”고 권고했다.
보고서에서 제시하는 솔루션 중 하나는 기업들 스스로 ‘윤리 위원회’를 설립하는 것이다. 특히 가트너는 직장 대화 내용을 기록하고 분석하려는 기업은 직원이 대표로 선출된 이사회를 설립해야 한다고 주장한다. 이것이 대화 데이터를 공정하게 사용하는 방법이라고 제시하고 있다.
또 가트너는 기업들이 책임있는 AI 소비에 대한 기준을 수립해야 한다고 권고했다. 보고서에서 가트너는 “AI로 인한 사회적 문제를 해결하려면 책임 있는 AI 개발과 정확성을 입증할 수 있는 기업에 우선순위(가산점)을 적용해야 한다”고 밝혔다.
딥페이크와 그 밖에 생성 AI와 관련한 보안문제는 “기업 내 교육 밖에 없다”고 권장한다. 가트너는 보고서를 통해 “트러스트 AI에 대한 요구가 더욱 거세질 것이며 이를 완성하는 것은 기업이 어떠한 방법으로 AI를 구축하느냐에 달렸다”고 말했다.
이밖에도 보고서에는 각종 딥페이크와 AI 기반 대화 분석 기술에 관한 예측자료가 담겨있다. 가트너 측은 “보고서는 AI 기술을 채택해 사용하거나 개발 중인 기업들이 경각심을 갖고 올바른 방향으로 활용하는 길을 제시하기 위해 완성한 것”이라고 말했다.
AI타임스 박혜섭 기자 phs@aitimes.com
