박윤규 과기정통부 제2차관이 현장간담회에서 발언하고 있다. (사진=과기정통부) 
박윤규 과기정통부 제2차관이 현장간담회에서 발언하고 있다. (사진=과기정통부) 

과학기술정보통신부(장관 이종호)는 디지털 기업 및 학계 전문가들과 함께 챗GPT 등 초거대·생성 인공지능(AI) 확산에 대응해 AI 윤리와 신뢰성을 확보하기 위해 서울 제네시스 랩에서 현장간담회를 개최했다고 11일 밝혔다.

이번 간담회는 국무회의 안건이었던 ‘새로운 디지털 질서 정립 방안’ 후속조치의 일환으로, 언론 소통 방식으로 진행했다.

과기정통부는 2020년에 사람중심의 AI 구현을 위해 경제협력개발기구(OECD), 유럽연합(EU) 등의 권고안을 반영해 3대 원칙·10대 요건으로 구성한 AI 윤리기준을 수립, 모든 사회 구성원이 AI 개발에서 활용까지 전 단계에서 함께 지켜야 할 내용을 제시한 바 있다.

이번 현장간담회는 윤리기준 제시에서 더 나아가 윤리규범 실천을 위한 구체적 방안을 논의하는 자리로, 정부와 민간에서 윤리원칙을 적용한 사례와 AI 윤리·신뢰성 확산을 위한 향후 계획을 공유했다.

먼저 최동원 과기정통부 과장이 정부의 AI 윤리·신뢰성 확보를 위한 그간의 노력을 설명했다. AI 윤리기준 제정부터 실천방안(자율점검표·개발안내서) 마련, 윤리정책포럼 운영 등 민간 자율적 윤리체계 확립을 위한 그간의 정책 추진상황과 향후계획을 발표했다.

문정욱 정보통신정책연구원(KISDI) 센터장은 AI 윤리기준의 준수 여부를 기획자·운영자 스스로 점검할 수 있도록 과기정통부와 정보통신정책연구원(KISDI)이 개발한 ‘자율점검표’의 내용을 소개하고, 대화로봇(챗봇)·작문·영상 분야별 기업 현장 적용 사례를 공유했다.

이강해 한국정보통신기술협회(TTA) 단장은 AI 윤리기준 중 기술적으로 구현 가능한 4가지의 핵심요건을 기반으로 개발자가 참고할 수 있는 기술적 요구사항을 담은 ‘개발안내서’의 내용과 공공사회·의료·자율주행 분야별 개발안내서가 어떻게 활용되었는지를 발표했다. 

이어 송대섭 네이버 이사가 서울대 AI 정책 이니셔티브(SAPI)와 함께 만든 ‘네이버 AI 윤리준칙’을, 김유철 LG AI연구원 부문장이 ‘LG AI 윤리원칙’을 중심으로 AI 윤리·신뢰성 강화를 위한 기업의 자율적 노력과 향후 계획에 대해 발표헸다. 또 이영복 제네시스랩 대표가 공정성이 중요한 채용 분야의 신뢰성을 확보하기 위해 개발안내서를 적용한 현황을 발표했다.

아울러 AI 윤리·신뢰성 확립 방안에 대한 집중 논의를 위해, 먼저 간담회 참석 기업들의 AI 윤리·신뢰성 실천을 위한 자율적 노력을 공유하고 윤리의 사회적 확산을 위한 과제에 대해 논의했다. 다음으로 현재 AI의 위험성 정도를 평가하고 현재의 위험이 통제 가능한 범위인지도 검토했다.

박윤규 2차관은 “챗GPT 등장 이후 초거대·생성 AI가 산업과 일상 속으로 빠르게 확산하는 상황에서 AI 윤리·신뢰성 쟁점이 새로운 국면에 접어들고 있다”면서 “기술의 개발부터 활용의 전 단계에서 AI 윤리·신뢰성을 확보하는 것이 기업의 생존과 직결된 만큼 간담회에서 논의한 사항을 바탕으로 AI 윤리·신뢰성 확보와 관련해 더 많은 노력을 기울일 것”이라고 밝혔다.

임대준 기자 ydj@aitimes.com

관련기사
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지