(사진=셔터스톡)
(사진=셔터스톡)

인공지능(AI) 기술 개발만이 능사는 아니다. 현재까지 AI의 기술적 메커니즘을 완벽히 이해ㆍ검증할 수 없고 인간 사회의 편향된 데이터를 활용ㆍ학습하면서 알고리즘의 편향성, 개인정보 유출 가능성 등 윤리적 문제를 수반하고 있다.

이에 국제 사회는 AI의 윤리적 문제를 해결할 목표로 다양한 가이드라인 지침을 수립하고 관련 기술적 연구를 진행하고 있다.

지난달 29일 정보통신기획평가원(IITPㆍ원장 석제범)은 'AI의 윤리적 문제와 해결방안 모색' 보고서를 발간하고, AI 윤리 문제를 다룬 이슈를 검토ㆍ분석했다.

보고서는 정보정책리더십센터(CIPL)의 '난제와 실제적 해결안' 연구에서 제시한 AI 윤리의 4가지 핵심 키워드를 구체적으로 다뤘다.

미 워싱턴D.C에 본부를 둔 CIPL은 개인정보ㆍ보안 분야를 연구하는 글로벌 싱크탱크다. 지난 2001년 설립한 CIPL은 비즈니스, 정부, 규제 정책 등에 직접적인 경험을 보유한 자문위원을 두고 있다. 산업계 리더, 정책 입안자 등과 협력해 개인정보와 책임 있는 데이터 활용을 위한 글로벌 솔루션을 개발한다.

이에 보고서에서 다룬 AI 윤리의 4가지 핵심 키워드를 설명하고 국제 사회의 대표적인 AI 윤리 가이드를 소개한다.

1. 공정성

AI의 공정성은 국제 사회의 기본적 데이터 보호 원칙이다. 유럽연합(EU)을 비롯한 각국 데이터 보호법도 공정 처리를 주요 요건으로 다루고 있다.

CIPL은 연구를 수행하며 "공정성과 공정 처리의 명확한 정의를 확립하지 못했다"며 "이는 주관적 개념일 수 있다"고 지적했다.

공정성은 다양한 맥락과 상황에 따라 달라지며 각 국가ㆍ사회ㆍ집단별 문화와 법적 환경 등에 따라 영향을 받는다. 또 AI의 복잡성을 결합하면서 명확하고 일관적인 공정성 적용이 어렵다.

이에 보고서는 특정 조직에서 공정성을 정의ㆍ평가하더라도 그 개념은 절대적일 수 없으며 지속적ㆍ반복적 재평가가 필요하다고 강조했다.

또 AI 공정성 부재에 따른 불공정 결과가 사회 전체에 영향을 미칠 수 있다며 AI 활용 주체는 공정성을 잃지 않도록 주의ㆍ예방해야 한다고 제언했다.

2. 투명성

AI 기술의 투명성은 '설명가능성' '추적성'을 포함한 개념이다. AI는 빠른 연산 능력을 바탕으로 대용량 데이터를 분석해 일정한 패턴을 찾고 의사결정을 내린다. 하지만 현재 기술로 이 과정을 규명하는 데 한계가 있어 AI의 의사결정 과정을 명확히 설명할 수 없다.

또 새로운 데이터로 재학습이 가능하며 이전에 내린 결정을 재현하는 데 어려움이 있어 투명성 확보가 힘들다.

이에 CIPL은 AI가 도출한 결정에 이의를 제기ㆍ번복할 수 있도록 해야한다고 설명했다. 알고리즘 공개가 AI 투명성 확보에 유용한 방법이라기보다 AI의 판정 결과를 항해 끊임없이 검토하고 피드백을 제공할 수 있어야 한다는 주장이다.

3. 목적 명확화와 활용 제한

두 가치를 실현하는 데 가장 중요한 사항은 원래 목적에 의해서만 데이터를 활용하는 것이다. 개인정보는 적법한 특정 목적으로 수집해야 하며 관련 목적에 부합하지 않을 경우 추가 처리를 금지하고 있다.

AI는 학습에 활용할 데이터의 양이 많을수록 다양한 상관관계를 발견ㆍ추론할 수 있다. 이에 데이터 활용을 비롯한 AI 기술 개발에 목적 명확화와 활용 제한을 가할 경우 AI 기술 고도화를 막을 수 있다.

하지만 AI 기술 개발을 목표로 두 가치를 느슨하게 적용할 경우 각종 개인정보를 원래 목적 외로 활용하면서 다양한 경로로 정보 유출 사고가 발생할 수 있다.

보고서는 연구 효용을 저해하지 않으면서 원칙을 준수할 수 있도록 균형점을 찾는 것이 중요하다고 강조했다.

4. 데이터 최소화

데이터 최소화는 개인정보보호와 AI 기술의 본질적 특성 간 대치가 불가피한 이슈다.

데이터 최소화 원칙은 경제협력개발기구(OECD) 프라이버시 8원칙 중 하나이며, EU 개인정보보호 규정(GDPR)도 이를 명시하고 있다.

머신러닝을 비롯한 AI는 정확한 결과 도출을 목표로 대용량 데이터를 학습한다. 데이터를 최소한으로 수집해 학습하면 정확한 알고리즘 개발이 어렵고, 편항 데이터만 학습할 경우 공정성을 해칠 수 있다.

만약, AI 면접 프로그램이 편향적 데이터셋의 영향으로 백인 남성만 채용할 경우 인종과 성별 데이터셋을 추가 수집해 적용해야 불공정 문제를 해결할 수 있다. 하지만 데이터 최소화를 지키지 못한다.

보고서는 AI 환경에서 '최소화'의 의미가 맥락과 상황에 따라 기준이 달라질 수 있다고 설명했다. 이어 AI 학습과 활용 단계를 구분해 AI 학습에 이용할 데이터의 최소화 기준을 유연하게 적용할 수 있어야 한다고 제언했다.

◆ 국제사회 대표적 AI 윤리 가이드라인

 

#1. 미국 연방거래위원회(FTC), 'AI와 알고리즘 이용에 대한 지침'

올해 4월 미국 연방거래위원회(FTC)가 발표한 ‘AI와 알고리즘 이용에 대한 지침’은 소비자 보호와 권리 보장을 궁극적 목적으로 하고 있다. 이 지침은 ▲투명성 제고 ▲의사결정 설명 ▲결과의 공정성 보장 ▲데이터와 모델의 타당성 보장 ▲책임 5가지 내용으로 구성하고 있다.

FTC의 'AI와 알고리즘 이용에 대한 지침' 주요 내용(사진=IITP, '인공지능의 윤리적 문제와
해결방안 모색')

 #2. 유럽연합(EU), '신뢰할 수 있는 AI 윤리 가이드라인'

지난해 4월 유럽연합(EU)은 ‘신뢰할 수 있는 AI 가이드라인’을 발표했다. 이 가이드라인은 신뢰 가능한 AI 확립ㆍ구현ㆍ적용 3가지 내용으로 나눠 윤리적 문제 해결과 신뢰 가능한 AI 시스템 마련을 목표로 하고 있다.

EU의 신뢰할 수 있는 인공지능 윤리 가이드라인 주요 내용
EU의 '신뢰할 수 있는 AI 윤리 가이드라인' 주요 내용(사진=IITP, '인공지능의 윤리적 문제와 해결방안 모색')

[관련 기사] ETRI, IoT 기기 SW 개발용 프로그램 제작...오픈소스 공유

[관련 기사] 차세대 콘텐츠에 활용할 수 있는 인공지능(AI) 기술 6가지

키워드 관련기사
  • EU, AI법 3원칙 마련···“고위험 AI 사고시 운영자 책임” 등
  • 프란치스코 교황, 바티칸의 11월 기도제목 "인공지능"으로
  • [AWS 리인벤트] “코로나 방역 효과 VS 감시‧통제 수단”…아마존 산업용 AI 서비스 논란