정부가 인공지능(AI) 윤리 정책 수립에 본격 나선다. 예상보다 큰 사회적 파장을 낳은 AI챗봇 이루다 사태에 대해 정부가 적극적인 대응에 나선 것이다.
올해 과기정통부는 AI 개발자부터 서비스 제공 기업, 사용자까지 각 대상에 맞춘 'AI 윤리 체크리스트'를 구축할 계획이다. 가변적인 특성을 가진 신기술인 AI에 맞춰 지속 대응할 수 있는 AI 윤리 정책 협력 플랫폼도 구성한다.
초중고생 AI 교육에도 기술뿐만 아니라 윤리 내용을 추가할 방침이다. AI 기업 규제를 위해서는 징벌적 방법보다는 자율규제책을 마련한다.
혐오 발언, 성희롱 악용, 개인정보 유출까지 다양한 논란을 일으켜 서비스가 잠정 중지된 AI 챗봇 이루다와 같은 사례를 다시 보지 않겠다는 강한 의지다.
과기정통부는 2일 개최한 '사람 중심의 인공지능을 위한 인공지능 윤리 정책세미나'에서 이와 같은 AI 윤리 정책 계획을 발표했다. 이날 행사에는 민·관·학 전문가 12명이 참석해 AI 윤리 문제에 대한 각계 의견을 나누기도 했다.
김정원 과기정통부 정보통신정책실장은 “지난 12월 AI 윤리기준을 공개한데서 나아가 올해는 AI 신뢰성 향상을 위해 구체적인 윤리 체크리스트를 만들겠다. 초중고생에 대해서도 AI 윤리 교육 방안을 마련할 것”이라고 발표했다.
이어 “AI 편향성을 완화하고 신뢰성을 향상시키고 기업의 자율규제를 조성할 법제 제정도 계획하고 있다”고 밝혔다.
문정욱 정보통신정책연구원(KISDI) 센터장은 AI 윤리 문제에 대응하기 위한 과기정통부 계획 중 AI 윤리 정책 협력 플랫폼 구축을 강조했다. 그는 “작년 12월 마련한 AI 윤리기준을 기본 플랫폼으로 하되, 새로운 윤리 이슈와 쟁점을 논의할 수 있는 거버넌스 체계를 정립하겠다. 계속해서 새로운 이슈가 발생하는 AI에 대해 지속 대응할 수 있어야 한다”고 말했다.
AI 윤리 체크리스트는 개발자뿐만 아니라 AI 서비스를 제공·관리하는 기업과 이용자 각각에 맞춰 구성할 계획이다. 문 센터장은 “금년 연구를 통해 구체적인 체크리스트를 만들겠다. 체크리스트 마련에 있어서는 명확한 목적, 대상 범위, 윤리 기준 간 상충 문제, 지침의 실질적 역할, 개발부터 활용까지 AI 전주기를 모두 고려할 것”이라고 밝혔다.
AI 윤리 관련 기업 규제에 대해서는 징벌책보다는 자율 규범 위주로 계획하고 있는 상황이다. 김경만 과기정통부 인공지능기반정책과장은 “사후적인 지원책으로 가겠다. 규제를 하더라도 사전규제, 민간 자율 규제가 우선”이라고 말했다.
반면 국내 기업이 자체적으로 AI 윤리 담당 부서와 방침을 마련하는 방법은 실현이 어려울 것으로 예상된다. 김경만 과장은 “해외 빅테크 기업들은 자체적으로 시스템을 마련한 상태다. 우리나라도 카카오, 네이버, 삼성과 같은 대기업에서는 자체 윤리기준을 만들었다. 하지만 중소기업, 스타트업들에게는 가능할 지 모르겠다”고 말했다.
이현규 IITP AI·DATA PM은 “AI 윤리 교육은 테크 자이언트들이 내부 개발자들을 대상으로 자체 시행한 것이 시초다. 일반 중소기업, 스타트업들은 이를 준비할 돈과 시간이 전혀 없다. 이러한 상태에서 AI를 테스트하다보니 이루다 사태가 발생한 것”이라고 지적했다.
카카오 김대원 이사도 “IBM, MS와 같은 큰 기업이 아닌 우리나라 대부분 기업들이 사회적 요청을 따라갈 수 있을까 의문”이라고 말했다.
◆유아부터 초중고생, 대학생까지 생애단계별 AI 윤리 교육
AI 윤리 교육 프로그램은 초중고생뿐만 아니라 유아, 대학생까지 생애단계별로 구성할 방침이다. 학교에서 이뤄지는 AI 교육 내용을 알고리즘 기초 교육과 AI 사용 윤리까지 확대한다는 발표다.
문정욱 KISDI 센터장은 “유아, 초중고생, 대학생, AI 대학원생, 일반시민까지 구분해 생애단계별 AI 윤리 교육 프로그램을 마련하겠다. AI 개발자를 위한 윤리 교육 프로그램도 연구할 계획”이라고 밝혔다.
교육 현장에서도 기존 AI 교육 프로그램이 기술 역량 내용에 치중됐다고 평가했다. 변순용 서울교대 교수는 “우리나라와 중국에서는 AI 개발 전문가를 기르기 위한 전단계로서 AI 교육을 진행하고 있다는 느낌이 강하다. 반면 미국, 핀란드, 호주와 같은 나라는 AI가 사회에 미치는 영향에 대한 내용도 교육 커리큘럼에 상당 부분 포함하고 있다”고 설명했다.
그러면서 “AI 전문 지식과 함께 사회에서 AI를 올바르게 활용하기 위한 윤리 교육도 함께 필요하다”고 강조했다.
전문가가 아닌 일반인인 학생들을 대상으로 AI를 어느 정도까지 가르쳐야 할 것인지에 대한 고민도 나왔다. 김효은 한밭대 교수는 “AI 윤리 교육을 3년 진행하면서 고민한 점은 설계단계에서부터 AI 윤리 문제가 발생할 수 있다는 것을 학생들에게 어떻게 가르칠까다. AI 설계 과정을 일반인 수준에서 접근, 체험할 수 있는 방법이 필요하다”고 전했다.
AI타임스 박성은 기자 sage@aitimes.com
- 과기정통부, ‘인공지능 윤리 정책세미나’ 2일 개최...AI 챗봇 이루다 논란 의견 수렴
- [분석] 이루다 사건, 문제는 AI모델과 데이터 정제...GPT-3에서 예견된 사태
- ‘이루다’와의 못 다 이룬 同行, 인공지능(AI) 윤리와 규범적 대응의 방향은
- AI챗봇 이루다 사건, 기술보다 사람이 문제..."이루다는 어른아이"
- 라이더유니온 "AI시스템이 노동통제한다"...배달앱의 '알고리즘 갑질' 행태 공개
- [이루다 대책 토론회]②전문가들 "정부, 이것부터 해야"...정부가 해야 할 일 3가지
- '비식별 데이터' 본격 사용으로 AI 연구 활발해진다...가명정보 결합기관 지정 상시 접수
- 네이버·카카오, AI 윤리 대책 앞다퉈 발표...이루다 사건 대응 성격
- 이신행 중앙대 교수 "온라인상 혐오 발언, 맥락 데이터 기반 AI로 잡을 수 있다"
