네이버(대표 최수연)는 2021년 ‘네이버 인공지능(AI) 윤리 준칙’과 2022년 ‘AI 윤리 자문 프로세스’에 이어 구체화한 버전의 'AI 안전성 실천 체계'를 공개했다고 17일 밝혔다.
네이버는 자체 기술 채널 ‘채널 테크’를 통해 ‘네이버 ASF(AI Safety Framework)’를 발표했다. AI 시스템을 개발, 배포하는 과정의 모든 단계에서 AI의 잠재적 위험을 인식, 평가, 관리하기 위한 대응 체계다.
AI 시스템이 초래할 수 있는 위험을 각각 ‘통제력 상실 위험’과 ‘악용 위험’으로 정의했다. 이에 맞는 댇응 방법을 설계한 것이 특징이다.
먼저 통제력 상실 위험이란 인간이 AI 시스템에 영향을 미치지 못하게 되는 상태를 의미한다. 이에 ‘AI 위험 평가 스케일’을 통해 시스템의 위험을 주기적으로 평가하고 관리하겠다는 계획이다.
현존 최고 성능의 AI 시스템을 ‘프론티어(frontier) AI’로 정의, 이 기술 수준에 해당하는 AI 시스템에 대해서는 3개월마다 위험 평가를 수행할 예정이다. 시스템의 능력이 기존보다 6배 이상 급격히 증가한 경우에도 그 시점에 맞춰 추가 평가를 진행한다는 설명이다.
악용 위험 가능성에는 ‘AI 위험 평가 매트릭스’를 적용해 대응한다고 전했다. AI 위험 평가 매트릭스란 AI 시스템의 사용 목적과 안전 조치 필요성 정도에 따라 각각 다른 방법으로 위험을 관리하는 것이다. 예시로 생화학 물질 개발과 같이 특수한 목적으로 사용하는 AI 시스템의 경우 특별 자격이 있는 사용자에게만 제공해 위험을 완화하는 방식이다.
이 외에도 사용 목적과 관계 없이 안전 조치 필요성이 높은 AI 시스템이라면 추가적인 기술적, 정책적 안전 조치를 통해 위험성을 완화시킬 때까지는 배포하지 않는다.
더불어 문화적 다양성을 반영한 AI 안전성 체계로 네이버 ASF를 발전시킬 계획이라고 밝혔다. 한국 외 다른 지역의 정부 및 기업과 소버린AI를 공동 개발하며 특정 문화권에서 성립할 수 있는 AI 시스템의 위험을 식별할 예정이다. 위험 정도를 측정하는 벤치마크도 문화권의 특성을 반영해 고도화할 계획이다.
한편 AI 안전성 체계의 설계, 실천 사례는 네이버가 국내 처음이라고 강조했다. 해외 빅테크 역시 각자 기준과 방식으로 AI 안전성 프레임워크를 실천하고 있는 추세다. 대부분 AI 모델 성능 발전에 따라 위험을 평가하는 구조를 갖추고 있다는 설명이다.
그중 각 지역의 사회기술적 맥락을 고려하거나, ‘매트릭스' 형태의 위험 평가 구조를 채택한 것은 네이버 ASF만의 특징이라고 덧붙였다.
지난 4월에도 ‘하이퍼클로바X 테크니컬 리포트’를 통해 하이퍼클로바X의 AI 안전성 평가 결과를 공개한 바 있다. 네이버 ASF 역시 리포트 등 형태로 외부에 공개하는 방안을 고민하고 있다고 밝혔다.
최수연 네이버 대표는 “국내에서 ‘하이퍼클로바X’라는 소버린 AI를 개발한 경험을 통해 문화적, 지정학적 상황과 지역적 이해가 AI의 성능뿐만 아니라 안전성에도 영향을 미친다는 점을 실증했다”라며 “향후 글로벌 시장에서도 소버린 AI를 개발하며 네이버 ASF를 지속적으로 개선해나갈 계획이며, 다양한 지역의 문화와 가치를 반영하는 다수 AI 모델을 통해 지속 가능한 AI 생태계에 적극 기여할 것”이라고 말했다.
장세민 기자 semim99@aitimes.com
