엔씨소프트 ESG 경영위원회 윤송이 CSO
엔씨소프트 ESG 경영위원회 윤송이 CSO(사진=엔씨소프트, 셔터스톡)

카카오, 네이버에 이어 엔씨소프트(대표 김택진)가 인공지능(AI) 윤리 대책 마련에 돌입했다. 엔씨소프트는 15일 신설한 ESG 경영위원회 핵심 사업 중 하나로 ‘AI 시대의 리더십과 윤리’를 꼽았다.

사내 개발자 대상 AI 윤리 지침은 음성합성 기술을 활용하는 K-POP 엔터테인먼트 앱 ‘유니버스’를 중심으로 우선 적용 중이다. AI 인재 육성 및 산학 협력 프로그램인 엔씨펠로우십(NC Fellowship)에도 윤리 관련 내용을 포함했다.

작년부터 진행하고 있는 AI 윤리 연구 후원 범위도 확대했다. 엔씨소프트는 2020년 MIT, 스탠퍼드대에 이어 2021년 하버드대까지 AI 윤리 연구 지원 대상으로 선정했다. 후원은 주로 연구비를 지원하는 방식으로 진행한다. 

엔씨소프트 ESG 경영위원회 4대 핵심 사업 내용(표=엔씨소프트)
엔씨소프트 ESG 경영위원회 4대 핵심 사업 내용(표=엔씨소프트)

엔씨소프트 관계자는 AI타임스와의 통화에서 “현재로서는 우리 기업이 직접 AI 윤리 지침을 개발하는 것보다는, 세계적인 AI 연구기관에 후원하는 형태로 AI 윤리 문제 대책 마련에 힘쓰고 있다. 꼭 우리 기업, 산업뿐만 아니라 사회 전체를 대상으로 하는 것”이라고 말했다.

사내 AI 연구 현장에서도 나름의 지침을 마련해 사용 중이다. 그는 “현재 엔씨소프트 내 AI 전문연구인력이 200명 정도다. AI 연구개발에 집중하는 만큼 (윤리 지침도) 계속 설정해나갈 필요가 있다”고 밝혔다.

AI 개발자 육성 프로그램에 윤리 내용을 포함한 건에 대해서는 “엔씨 펠로우십 산학연구에 참여하는 대학생, 대학원생들은 개발자들과 함께 과제를 수행한다. 매년 커리큘럼이 달라지는데 최근 AI 윤리가 화두가 된 만큼 기술 개발, 연구 과정에서 윤리를 고려할 수 있도록 구성했다”고 전했다.
 

◆국내 IT기업들, 이루다 사건 후 AI 윤리 대책에 주력

국내 IT기업이 AI 윤리 문제 해결에 적극 가세하게 된 것은 소위 ‘이루다 사건’ 이후부터다. 스타트업 스캐터랩의 AI 챗봇 이루다는 올해 1월 말 출시됐지만 개인정보 유출과 여성, 장애인을 비롯한 각종 소수자 차별 문제로 약 2주 만에 서비스를 잠정 중단했다.

[관련기사] 결국, 잠정 중단된 스캐터랩 AI 챗봇 이루다 사태가 보여준 문제 3가지

이루다 서비스 종료 6일 후 네이버는 처음으로 사내 AI 윤리 지침을 공개했다. 학계와 협업해 기업 외 학계 전문가 관점을 적극 반영한 것이 특징이다. 해당 지침 마련을 위해 네이버는 2018년부터 서울대 AI 정책 이니셔티브와 협업했다. AI 원천 기술 개발보다는 서비스 제공에 집중하는 기업 성격을 살려 AI를 ‘일상의 도구’로 명명한 것도 특징이다.

[관련기사] 네이버·카카오, AI 윤리 대책 앞다퉈 발표...이루다 사건 대응 성격

카카오는 국내에서 가장 먼저 AI 윤리 원칙을 마련, 공개한 기업이다. 카카오가 AI 기술 개발과 윤리에 대한 규범인 ‘알고리즘 윤리 헌장’을 발표한 것은 2018년이다. IBM, 구글, 페이스북과 같은 글로벌 빅테크 기업들도 2018년에 자체 AI 윤리 원칙을 공개한 점을 고려했을 때 발빠른 조치라고 볼 수 있다.

올해 카카오는 이루다 사건이 일어나기 약 한 달 전인 1월 4일 ‘인권경영선언문’을, 이루다 문제가 이슈화된 직후인 1월 13일에는 ‘증오발언 근절을 위한 원칙’을 공개한 바 있다. 2월에는 전직원 대상 교육인 '카카오 크루가 알아야 할 윤리경영'에 AI 알고리즘 윤리 교육 과정을 신설했다.

AI 윤리 문제 개선을 위한 가장 합리적인 조치로 정부와 기업은 모두 기업의 자율 규범을 꼽는 상황이다. AI 윤리 관련 기업 규제 계획에 대해 김경만 과기정통부 인공지능기반정책과장은 “사후적인 지원책으로 가겠다. 규제를 하더라도 사전규제, 민간 자율 규제가 우선”이라고 말했다.

[관련기사] 정부 “올해 AI 윤리 체크리스트 만든다”...제2의 이루다 사건 막을 것

카카오 김대원 이사도 “정부 차원에서는 징벌적 방식을 고민하기보다는 AI 윤리 기준을 잘 지킨 기업에 인센티브를 주는 방법으로 접근해야 한다. 그래야 기업들이 자발적, 능동적으로 임할 것”이라고 말했다.

네이버는 하나의 변하지 않는 윤리 기준을 마련하는 것이 아니라 다양한 사례를 발굴해 현장에서 사용할 수 있는 가이드라인을 만들어야 한다는 입장이다.

네이버 박우철 변호사는 “추상적인 AI가 아니라 서비스에 기술을 활용하는 모습을 봐야 한다. AI 개발, 사용 경험에서 나오는 사례를 적극 발굴해 구체적 윤리 기준을 만들어야 한다. 경험 없이 체크리스트를 작성하면 실제 현장에 쓰이지 못하고 결국 추상화될 것”이라고 전했다.

 

AI타임스 박성은 기자 sage@aitimes.com

[관련기사]IBM, 3대 AI개발 준칙 발표... ‘신뢰 가능한 AI’ 화상 브리핑 통해

[관련기사]“엔씨소프트 AI는 알파고와 달라...잘 지는 AI 만든다”

관련기사
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지