카카오(대표 정신아)는 AI 기술 개발과 운영 과정에서 발생할 수 있는 리스크를 사전에 식별하고, 이를 관리하는 프로세스를 정의한 리스크 관리 체계인 ‘카카오 AI 세이프티 이니셔티브(Kakao ASI)’를 구축했다고 23일 밝혔다.
카카오 ASI는 기술의 설계부터 개발, 테스트, 배포, 모니터링 및 업데이트 등 AI 시스템의 전 생애주기에서 발생할 수 있는 리스크에 선제적인 대응이 가능한 것이 특징이다. ▲카카오 AI 윤리 원칙 ▲리스크 관리 사이클 ▲AI 리스크 거버넌스라는 3가지 핵심요소로 구성된다.
이중 AI 윤리 원칙은 2023년 3월 발표한 ‘카카오 그룹의 책임 있는 AI를 위한 가이드라인’을 기반으로 하며, 사회 윤리, 포용성, 투명성, 프라이버시, 이용자 보호 등 원칙을 포함한다. 개발자와 사용자를 대상으로 윤리적인 가이드라인을 제공한다.
리스크 관리 사이클은 리스크를 체계적으로 다루기 위한 접근법으로, 식별-평가-대응의 순환 단계로 구성된다. 사이클은 AI 시스템의 전체 수명주기에 걸쳐 반복적으로 적용된다.
AI 리스크 거버넌스는 AI 시스템의 개발, 배포, 사용 등을 관리하고 감독하는 의사 결정 체계를 뜻한다. 조직 내 정책, 절차, 책임 구조 및 외부 규제와의 조화를 포함하며, 거버넌스 체계 내에서 관련 리스크들을 다각도로 검토하게 된다.
카카오 ASI 거버넌스는 AI 세이프티 조직과 전사 리스크 관리 전담 조직인 ERM 위원회, 최고 의사결정 기구 등 3단계로 구성돼 있다.
김경훈 AI 세이프티 리더는 “AI 시스템 이용에 따른 리스크의 발생 주체를 AI와 인간으로 구분하고, 발생 주체 별 리스크의 특성을 반영하여 평가 및 대응방안을 마련했다는 점이 타사 AI 리스크 관리 프레임워크와 차별화되는 점”이라고 말했다.
박수빈 기자 sbin08@aitimes.com
