AI 기술이 보편화 되면서 이를 악용해 앱을 개발하는 사례 또한 적지 않게 일어난다. 지난해 인터넷에서 여성 사진을 누드사진으로 편집하는 ‘딥누드’ 출시는 사람들을 경악시켰다. 사람들의 항의가 빗발치자 개발사 측은 잘못을 인정하고 앱 배포를 중지했지만 비슷한 사건은 이후에도 계속됐다. 얼굴사진과 이름, 거주지역, 이메일 주소 등을 입력해 그 사람의 성별을 맞추는 ‘젠더리파이’ 앱도 거센 비난에 못 이겨 다운로드가 중지됐다.
모두 대세라는 AI에 편승해 도덕적 기준을 무시했기 때문에 벌어진 일이었다. AI는 점점 IT 분야에서 필수불가결한 존재로 자리매김해 가고 있다. 최근 시장조사기관 가트너가 세계 89개국 기업경영인 3000여명을 대상으로 설문조사를 한 결과 2015년과 비교해 지난 한 해 동안 각 기업 내 AI 도입율은 270% 증가한 것으로 나타났다.
AI 기반 제품이나 소프트웨어를 개발·출시하는 기업은 이후 사회에 끼치는 영향과 AI로 인한 편견, 성차별, 인종차별 등에 책임을 느껴야 할 것이다. AI 및 산업전문 매체 싱크드는 24일(현지시간) 구글을 예로 들며 이를 보도했다. 트레이시 프레이 구글 클라우드 AI 및 산업 솔루션 디렉터는 최근 머신러닝의 공정성을 논하는 언론 브리핑에서 “이제 기업들은 대중이 신뢰할 만한 AI 시스템을 구축하는 추세”라고 설명했다. 구글 역시 이같은 기업 가운데 하나다.
프레이에 의하면 구글은 2017년 여름부터 자체 ‘AI 원칙’ 개발에 착수해 이듬해 6월 출간했다. 미 정부가 수립한 정책수용도 중요하지만 회사 차원의 사회적 윤리와 책임을 바탕으로 한 AI 원칙서를 발간해 개발과 응용에 체계적으로 적용시키기 위함이었다.
구글만의 AI 원칙은 총 7가지로 구성됐다. AI는 사회적으로 유익해야 하고, 편견을 만들어서는 안 되며, 안전을 위해 건설돼야 한다. 사람을 위해 책임을 져야 하며, 개인정보 원칙을 준수하고, 우수한 과학 기준이 유지돼야 한다. 마지막으로 이 모든 원칙을 적용해 사람들이 사용하는 AI 기술이 돼야 한다.
7가지 원칙을 정립한 구글은 ‘AI가 개발·활용되지 말아야 하는 4가지 영역’ 또한 지정했다. 구글에 따르면 자사 AI는 사람들에게 피해를 입혀서는 안 되며, AI 적용의 주 목적이 사람들에게 부상을 입히는 무기 개발이서도 안 된다. 또 국제사회가 인정한 규범을 감시하기 위한 정보수집을 위해 사용되어서도 안 되며, 국제 인권과 원칙을 위반하는 행위에 쓰여서도 안 된다고 명시하고 있다.
툴시 도시는 구글에서 머신러닝(ML) 공정성을 담당하고 있다. 사내 각 부서에서 추진하는 AI 활용 프로젝트는 도시가 이끄는 팀의 감수를 통해 최종 진행여부를 결정짓는다. 구글 AI 생태계를 총괄하는 허브라고 불릴 정도로 7가지 AI 원칙과 4가지 AI 금지영역에 위배되는지를 꼼꼼히 따진다. 도시가 팀장인 ML 공정성 팀 역시 고위 임원이나 자문위원들에게 정기적으로 조언을 구한다. 이 팀은 구글에서 윤리 자문, 사회 연구, 기술 연구 활동, 기초적 ML 연구도 담당하고 있다.
도시팀의 궁극적인 목표는 구글의 모든 제품에 관한 전문성을 공유하고 이를 위한 피드백을 수집하는 것이다. 도시는 “구글러라면 누구나 신제품, 연구논문, 파트너십, 혹은 자신이 갖고 있는 아이디어에 대해 AI 원칙 검토를 요청할 수 있다”고 말했다. 이 과정에서 중앙심사단이 관련 AI 원칙과 해당 분야에 전문성을 갖춘 ‘구글 전문가’를 선정한다. 심사단은 특정 프로젝트 완료 후 얻을 이익과 위해성을 파악한 후 프로젝트 착수 여부를 결정한다. 프로젝트가 가동되는 동안 윤리적으로 고려할 만한 사항이 있는지도 꼼꼼히 따져본다.
프레이는 구글 클라우드가 AI 원칙을 기반으로 자체 거버넌스를 구축해 신기술이 구체화되는 환경에서 엄격한 평가기준을 제공한다고 밝혔다. 클라이언트 계약 조항을 면밀히 확인하고 7가지 원칙에 따라 철저하게 제품을 검토한다.
지난 3월 클라우드팀은 클라우드 비전 API에서 성별 라벨을 모두 삭제한다고 발표했다. 이로써 얼굴인식 AI 기능에서 남녀구별이 사라지는 변화가 있었다. 프레이는 “세상에는 얼굴만 보고 성별이 구분되지 않는 개성 강한 사람들이 많다”며 “이들을 판별할 때 오인하는 실수를 피하기 위함”이라고 밝혔다.
다음 달인 4월 구글 AI는 초기 번역문을 편집해 성별 편견을 해소하는 번역기의 새로운 접근방식을 발표했다. 10월 초 발간된 구글 AI 연구 논문은 자연어 학습모델 버트(BERT)와 앨버트(ALBERT)를 놓고 성별 관련 상관관계를 연구한 모범 사례로 평가받고 있다.
프레이는 그릇된 방향으로 출시돼 사람들에게 불쾌함을 주는 AI 기반 서비스에 대해 “무관심으로 대응하며 수요를 줄이는 것이 가장 쉽게 차단하는 방법”이라고 말했다. 이어 “그런 것들은 우리 사회에 도움이 되지 않으며 세태를 바꾸기 위해 노력하는 일 매우 중요하다”고 강조했다.
[관련기사] 미 프린스턴대, 얼굴인식AI 인종·성차별 줄이는 도구 개발... 데이터셋 대폭 수정하는 '리바이스'
