LG 인공지능(AI)연구원이 'AI 윤리 점검 테스크포스(TF)'를 발족하고, 최근 내세운 'AI 윤리원칙'인 ▲인간존중 ▲공정성 ▲안전성 ▲책임성 ▲투명성을 연구 개발에 적용한다. 신뢰할 수 있는 AI 제품 연구·개발을 위해 연구진을 교육하고 점검한다는 방침이다.
LG AI연구원(원장 배경훈)은 AI 연구·개발 중 발생할 수 있는 윤리 문제를 사전에 검증하기 위해 AI 윤리 점검 TF를 꾸렸다고 24일 밝혔다.
TF에서는 LG AI연구 직원을 대상으로 LG가 제시한 윤리원칙을 학습해 기술 고도화에 적용하도록 교육할 예정이다.
LG 연구원은 ‘설명 가능한 AI(XAI, Explainable AI)’와 ‘혐오 표현 감지’ 기술 등 자사 제품과 서비스에 AI 윤리원칙을 담기 위해 노력해 왔다.
설명 가능한 AI는 알고리즘 결과값이나 오류 원인에 대한 이유를 사람이 이해할 수 있도록 투명하게 설명하는 기술이다.
예를 들어 불량 제품을 걸러내는 AI 비전 기술은 단순히 불량 유무만 알려주는 게 아니라 왜 불량품인지에 대한 근거까지 제시한다.
고객이 상담 챗봇 등 AI 서비스에서 겪을 수 있는 혐오 표현 감지 기술도 연구했다. 단어뿐 아니라 문장 맥락까지 분석한다. 공격적이거나 편향된 정보를 걸러내 사회적 갈등을 일으키는 악성 댓글 해결이 목표다.
LG AI연구원은 이번에 만든 TF팀으로 AI 윤리원칙을 자사 제품·서비스에 더 깊숙이 적용할 방침이다.
배경훈 LG AI연구원장은 "인간이 AI를 어떻게 바라보고 활용하느냐에 따라 기술 평가는 달라진다"며 "LG는 이번 윤리원칙 수립을 통해 인간과 AI공존에 대한 연구를 지속하겠다"고 밝혔다.
AI타임스 김미정 기자 kimj7521@aitimes.com
[관련 기사]"복잡한 일도 스스로 해결하는 AI 시대 왔다"...이홍락 미시건대 교수
[관련 기사]LG전자, 로봇 기술 고도화 위해 KT와 손잡았다
