행사 진행 중인 서울과기대 이종임 교수(왼쪽)와 이광석 교수(오른쪽)(사진=행사캡처)
행사 진행 중인 서울과기대 이종임 교수(왼쪽)와 이광석 교수(오른쪽)(사진=행사캡처)

개인정보 유출부터 소수자 혐오, 성희롱까지 수많은 논란으로 서비스를 중단한 인공지능(AI) 챗봇 이루다의 문제 책임은 기술이 아닌 사람에 있다는 전문가 주장이 나왔다.

서울과기대 IT정책전문대학원과 문화연대 기술미디어문화위원회는 26일 ‘인공지능 챗봇 이루다가 던진 우리 사회의 과제’를 주제로 온라인 토론회를 열었다.

이광석 서울과기대 IT정책전문대학원 디지털문화정책전공 부교수가 기조연설을 맡았고 손희정 경희대학교 비교문화연구소 연구교수, 김민 진보네트워크센터 정책활동가, 전창배 한국인공지능윤리협회 이사장, 박지환 Parti 공익데이터본부 변호사, 송수연 언메이크랩 작가가 패널로 참석했다.

토론자들은 이루다 개발사인 스캐터랩에 문제 책임 소지가 가장 크다고 입을 모아 주장했다. 이루다는 기획단계에서부터 문제가 있는 서비스이며 관련 문제 발생시 개발사 스캐터랩의 대응 방식도 적절하지 않았다는 것이다.

손희정 경희대학교 비교문화연구소 연구교수는 그간 스캐터랩이 밝힌 입장을 조합해봤을 때 이루다는 실패한 서비스라고 지적했다. 스캐터랩 기획팀에 따르면 이루다의 타겟 이용자는 남녀를 가리지 않으며 초기 기획 단계에서는 여성이었다. 반면 AI 학습데이터인 연애의과학 데이터는 연인 관계를 염두에 둔 이성 간 대화로 이뤄져있어 남성 이용자에 적절하다는 것이다.

발표 중인 손희정 경희대학교 비교문화연구소 연구교수(사진=행사캡처)
발표 중인 손희정 경희대학교 비교문화연구소 연구교수(사진=행사캡처)

손 교수는 “최예지 이루다 제품총괄매니저에 의하면 이루다가 20대 여성 컨셉을 가지게 된 이유는 당시 기획자들 대부분이 여성이었기 때문이다. 같은 여성인만큼 캐릭터를 잘 만들 수 있을 거라고 판단했다는 것”이라고 설명했다.

이어 “주요 타겟은 10대에서 30대 여성으로 메신저 채팅으로 공감, 감정적 해소, 수다를 즐기는 사람들이었다고 한다. 하지만 연애의 과학 데이터는 이성 연애 관계 안에서 여성이 비춰지고 싶은 이미지를 주로 반영할 수밖에 없다. 동성간 친밀관계와는 완전히 다를 수 있는 것”이라며 “빅데이터 활용 자체부터 잘못된 것”이라고 꼬집었다.

이광석 서울과기대 IT정책전문대학원 부교수도 “서비스를 출시하기 전에 어뷰징으로 인한 시민 피해를 예측, 예방하지 못한 것은 확실히 아마추어적이고 경솔했다”고 비판했다.

이어 “보통 기술중립론으로 기술에는 문제가 없고 기술을 사용한 사람에 책임이 있다고 말하는데 이번 이루다를 보면 기술 설계에서부터 편향성이 있었다”고 말했다.

발표 중인 이광석 서울과기대 IT정책전문대학원 디지털문화정책전공 부교수(사진=행사캡처)
발표 중인 이광석 서울과기대 IT정책전문대학원 디지털문화정책전공 부교수(사진=행사캡처)

문제 발생 후 해명 시 스캐터랩이 20대 여성 컨셉인 이루다를 어린아이 지능이라고 표현한 것도 적절하지 않다는 지적이다. 이 교수는 “딥러닝 기술 특징을 어린아이로 표현한 건데 어린아이가 아니라 '어른아이'가 맞다. 이미 잘못된 사회 편향을 머릿속에 그대로 가지고 태어났기 때문”이라고 강조했다.

결정적 문제를 개인정보수집ㆍ유출에 한정지으면서 데이터 편향성 문제를 축소시키고 있다는 우려도 나왔다. 이루다팀을 포함한 개발자, 연구자들이 데이터 편향 문제를 더욱 인지하고 해결에 노력을 기울여야 한다는 의미다.

송수연 언메이크랩 작가는 “이루다 이전에도 작년 6월 (MIT와 뉴욕대가 공동구축한) 타이니라는 비전 데이터셋이 편향성으로 파기된 적 있다. 해당 데이터셋은 2006년부터 인터넷 검색 엔진을 통해 자동으로 데이터를 수집했고 약 8000만개를 보유하고 있었다. 데이터 레이블링에 특정 대상에 대한 경멸적 용어가 포함된 것이 뒤늦게 밝혀졌고 즉시 폐기됐다”고 설명했다.

그는 “이 데이터셋은 오랫동안 연구자들 사이에서 사용돼왔지만 가차없이 폐기됐다. 컴퓨터비전 연구 커뮤니티 가치에 반하기 때문”이라며 “데이터 분류 체계가 차별과편견을 포함할 수밖에 없다는 것을 인정하고 엔지니어들이 꾸준히 응답하고 조정하려는 노력이 중요하다”고 전했다.
 

◆기술 문제 이전에 사회적 합의부터

AI 기술 한계를 논하기 전에 사회적인 합의부터 필요하다는 의견도 나왔다. 특히 스캐터랩이 이루다의 소수자 차별 발언 알고리즘을 수정하는 단계에서 문제가 여실히 드러났다는 주장이다.

손희정 교수는 “마이크로소프트 AI 챗봇 테이의 경우 유대인 홀로코스트에 동의한다는 발언을 하자마자 몇 시간만에 서비스가 종료됐다. 하지만 이루다가 동성애자 결혼에 대해 반대한다고 했을 때는 파장이 달랐다. 한국 사회에서 해당 사안에 대해 합의되지 않았기 때문”이라고 지적했다.

손 교수는 “회사 개별 가치관을 반영하는 것은 표현의 자유지만 잘 팔리는 제품을 만들기 위해 주류 가치관을 따를 수밖에 없다. 결국 사회적 합의가 중요하다. 리얼돌은 최근 상품 허가를 받았는데 이루다에 대한 성적 희롱은 범죄인가도 논쟁점”이라고 말했다.

그러면서 “AI 성착취가 성립할 수 있느냐를 논하기 전에 사회 속에 이미 존재하는 혐오에 대해 생각해봐야한다. 여성형 AI를 만드려 할 때 여성혐오적 문화를 고려해야 하는 것”이라고 강조했다.

발표 중인 김민 진보네트워크센터 정책활동가(사진=행사캡처)
발표 중인 김민 진보네트워크센터 정책활동가(사진=행사캡처)

김민 진보네트워크센터 정책활동가는 이루다 사건을 AI 기술 문제보다 인권침해사례로 보는 입장이다. 김 활동가는 “그간 AI 규제책 마련을 논의할 때 기술적인 불투명성, 설명불가능성, 문제 발생 시 책임소지가 모호한 점 등에 집중했는데 이루다 문제는 다르다”고 말했다.

그는 “한국사회가 지속적으로 차별적이었고 이를 막기 위한 문화적, 법적 토양이 부족했던 것이다. 기술은 계속 발전하는데 프라이버시에 대한 관념도 부족하다”며 “근미래 기술인 AI를 어떤 틀에서 제어하느냐를 논하기 이전에 우리 과거를 돌아봐야 한다”고 전했다.

 

AI타임스 박성은 기자 sage@aitimes.com

[관련기사]AI챗봇 이루다 개발한 스캐터랩에 353명 집단소송 본격 돌입

[관련기사]스캐터랩 “연인 간 성적 대화 무단 공유, 사내 조사 중”...이루다 서비스 중단 완료

관련기사
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지