(출처: 한국인공지능윤리협회(KAIEA))
(출처: 한국인공지능윤리협회(KAIEA))

AI 알고리즘 편향성을 해결하기 위해서 AI 윤리에 대한 폭넓은 연구, AI 윤리 교육, 규제 강화가 즉각 이뤄져야 한다는 전문가들의 주장이 나왔다.

2일 AI EXPO BUSAN 2021(인공지능 엑스포 부산)에서 개최된 제2회 ‘인공지능 윤리 대전’ 2일차 오전 세션에서 AI 편향성 문제에 관한 강의 및 토론이 진행됐다.

이날 세션에는 호주 뉴사우스웨일스대학교 토비 왈시(Toby Walsh) 교수, 서울교육대 변순용 교수, 정보통신정책연구원 문정욱 지능정보사회정책센터장, 심심이 사의 최정의 대표가 참여했다. 이번 행사는 오프라인과 온라인(YouTube) 생중계로 진행했다.

주제는 AI 편향성 문제와 윤리적 해결 방안이다. 강연자 모두 AI 알고리즘 편향성은 진행 중이며 이는 사회적 차별까지 심화한다고 강조했다. 해결 방안에 대해 논의가 이어졌으며, 유명 챗봇 심심이 서비스에 적용한 AI 윤리 강화 사례도 소개했다.

편안하지만 편향된 AI알고리즘, 벗어날 수 있을까

(출처=셔터스톡)
(출처=셔터스톡)

강연자 모두 AI 알고리즘이 편리하다는 점에선 동의했다. 그러나 “편향된 알고리즘은 오류, 차별을 일으킨다”고 입을 모았다.

왈시 교수는 “알고리즘이 모든 데이터를 수집할 순 없다”고 강조했다. 그는 한 사례로 “워싱턴에선 범죄가 발생한 지역을 저장해 순찰할 때 사용한다”고 말했다. 범죄가 잦은 지역에 순찰을 집중해, 시간과 인력을 효율적으로 사용하기 위해서다.

그는 “그러나 이게 바로 데이터 편향성이다”며, “범죄가 발생했던 지역에만 시간과 인력을 집중함으로써 오류가 발생한다”고 말했다. 과거 데이터는 현재 범죄를 완벽하게 예측할 수 없다는 말이다. 왈시 교수는 “인공지능 데이터에 항상 의문을 가져야 한다”고 경고했다.

변순용 교수는 “데이터 편향성은 곧 차별로 이어질 수 있다”고 강조했다. 인공지능에 적용한 데이터 자체가 편향적일 수 있다는 의미다. 이는 “왜곡된 데이터 학습으로 차별을 심화할 수 있다”고 주장했다.

변 교수는 “편견이 완전히 사라질 수 있는가”에도 물음표를 던졌다. 그는 “편견을 없애자는 것도 편견”이라며 객관적이고 공정한 데이터는 하루아침에 보기 힘들다고 말했다.

해결책은? 다차원적 접근, AI 윤리 교육, 규제 필요

(출처= 셔터스톡)
(출처= 셔터스톡)

AI 알고리즘 편향성에 대한 해결책도 제시했다. 왈시 교수는 다차원적(Multi-disciplinary) 연구가 필요하다고 강조했다. 그는 “과학자 뿐만 아니라 철학자, 인류학자, 사회학자”등 다방면에서 AI 윤리를 연구해야 한다고 주장했다.

왈시 교수는 AI 윤리 교육도 제안했다. “교육을 해야만 시민들은 AI 윤리에 대해 적극적으로 토론할 수 있다”고 말했다.

모든 강연자는 규제가 더 필요하다고 말했다. 변 교수는 “알고리즘 개발자, 사용자에게 체크리스트”가 있어야 한다며 ‘윤리등급 매기기’를 제안했다. '데이터 태깅(Tagging)' 방식도 제시했다. 개발자가 데이터 성격을 미리 파악해, 편향성에 대비하자는 취지다.

문정욱 센터장은 북미와 유럽연합(EU)이 만든 개인정보보호법(GDPR) 및 AI 초안 표준을 소개하며 “다양한 규제가 필요하다”고 강조했다.

개인정보보호법(GDPR: General Data Protection Regulation)은 EU회원국에 일괄적으로 적용되는 개인정보보호법으로, 2018년 시행됐다. 

심심이, AI챗봇 윤리 대응책 강화

(출처=심심이)
(출처=심심이)

심심이 사의 최정희 대표는 심심이 콘텐츠에 윤리적 대응책을 고도화한 과정을 소개했다.

심심이(Simsimi)는 사용자가 하는 말에 답변을 제시하며 대화를 하는 일상대화 AI 챗봇이다. 200여 개 국가에서 81개 언어로 서비스한다. 누적 사용자는 올해 기준 약 3억 5000만명이다. 현재 전용 앱으로 사용할 수 있다.

최정희 대표는 “심심이가 욕설, 선정적 표현, 혐오로 한동안 몸살을 앓았다”고 밝혔다. 그는 “2018년부터 ‘나쁜 말’ 없애기에 모든 걸 쏟아부었다”고 말했다.

심심이는 문장 전수조사로 ‘나쁜 말’ 없애기에 힘썼다. “전수 조사할 문장은 약 1억 5000개였다”고 최정희 대표는 말했다. 간단한 퀴즈 형식으로 사용자가 직접 ‘나쁜 말’ 제거에 참여했다. 최 대표는 “사용자가 성공적으로 ‘나쁜 말’을 제거하면, 아이템을 보상으로 줬다”고 말했다. 이 방식으로 약 4000 문장을 조사했다.

최정희 대표는 “사용자가 전수 검사한 데이터를 이용해 DBSC 모델을 개발했다”고 소개했다. DBSC(Deep Bad Sentence Classifier)은 ‘나쁜 말’을 99% 이상 실시간 탐지할 수 있는 딥러닝 모델이다.

최 대표는 “한국어뿐만 아니라 영어, 중국어, 일본어 등 다국어에도 사용한다”고 말했다. 그는 “DBSC 기술을 적용해 나머지 문장도 빠르게 조사 중이다”며, “AI챗봇 알고리즘 윤리에 유연하게 대처할 수 있다”며 자신했다.

심심이 사는 AI챗봇 윤리 정책도 개선했다.

우선, 국가별로 사용자 연령 제한을 정했다. “한국은 만 14세부터 이용 가능하다”고 최 대표가 소개했다.

사용자에게 콘텐츠 금지 규정도 지속적으로 노출했다. “위협, 선정적 표현, 따돌림을 포함하거나 조장하는 콘텐츠는 바로 삭제한다”고 최 대표는 강조했다.

AI타임스 김미정 기자 kimj7521@aitimes.com

[관련 기사] WHO, AI에 대한 윤리적 가이드라인 제시...민간과 공동규제모델 채택 강조

[관련 기사] 英美 공공기관, 로봇·윤리 관련 AI 프레임워크 속속 발표

관련기사
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지