문정욱 센터장 정보통신정책연구원 센터장이 'AI 윤리정책 동향과 향후 과제'에 대한 내용을 발표하고 있다. (사진=한국인터넷진흥원 유튜브 캡처)
문정욱 센터장 정보통신정책연구원 센터장이 'AI 윤리정책 동향과 향후 과제'에 대한 내용을 발표하고 있다. (사진=한국인터넷진흥원 유튜브 캡처)

"인공지능(AI)을 부작용 없이 활용하기 위해서는 AI윤리 협력을 위한 거버넌스를 구축하고, 기업들의 자율적인 윤리 준수 노력을 하도록 유도해야 합니다."

문정욱 정보통신정책연구원 지능정보사회정책센터장이 8일 한국인터넷진흥원(KISA) 개최한 '제6회 AI시큐어리티데이 세미나'에서 이같은 의견을 제시했다.

문 센터장은 'AI 윤리정책 동향과 향후 과제'를 주레로 한 발표에서 "채용시스템을 비롯해 챗봇 서비스, 안면인식 시스템 등 곳곳에서 인공지능 윤리 훼손 위험이 내재돼 있다"면서 "지금의 경직된 법과 규범으로는 급격한 기술과 사회 환경 변화에 대응할 수 없고 올바른 인공지능 개발과 활용을 장려할 수 있도록 자율규제로서의 인공지능 윤리기준·체계·실천 등이 필요하다"고 역설했다.

그는 시민들은 인공지능 윤리기준의 핵심 요건으로 안전성, 인권보장, 프라이버시 보호를 가장 중요하다고 답한 지난해 4월 한국리서치 조사 자료를 언급했다.

미국과 유럽연합(EU)를 비롯한 세계 각국과 국제기구에서 윤리적인 인공지능 실현을 위한 원칙과 실천방안을 속속 마련하고 있다. 우리나라도 2020년 12월 인공지능 윤리기준을 수립한데 이어 지난 2월 '인공지능 윤리기준 실천을 위한 자율점검표'를 마련한 바 있다.

문 센터장은 여기에 더해 인공지능 윤리 확산을 위해서는 ▲인공지능 윤리 준수를 위한 기업의 자율적 노력 지원체계 마련 ▲인공지능 윤리 확립을 위한 협력적 거버넌스 체계 구축 ▲인공지능 산업 진흥 기반조성을 위한 인공지능 윤리영향평가 프레임 워크 개발 등의 방안 ▲인공지능 윤리교육 및 AI 리터러시 강화 등이 필요하다고 제안했다.

국가는 AI 윤리에 관한 구체적 메뉴얼을 제공하고, 기업에 정책적인 인센티브를 지원하는 노력이 필요하다는 의견도 내놓았다. 그는 이어 "진흥과 규제의 이분법적 접근이 아닌 인공지능 기술 발전 속도를 감안한 균형 잡힌 인공지능 윤리정책 마련이 필요하다"고 재차 강조했다.

나호정 기자 hojeong9983@aitimes.com

관련기사
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지