산업 다방면에서 인공지능 도입을 서두르고 있다. 인공지능은 사업을 모습을 획기적으로 바꿀 수 있는 기술이지만 자칫 모든 것을 망가뜨릴 수도 있다. 인공지능은 편향이 생길 수 있다는 것을 인지하고 객관적이고 효율적인 인공지능 시스템을 도입하기 위해서는 이러한 편향의 위험성을 알고 있는 것 또한 중요하다.

포브스(Forbes)는 9일(현지시간) 인공지능을 망치는 편향(Bias) 5가지를 소개했다. 인공지능을 도입하기 전 인공지능의 편항과 이를 방지하고 대응하기 위해 알아야할 5가지 편향들은 아래와 같다. (원문 링크)

1. 인간의 편향 Human Bias

인공지능은 객관적이지 않다. 인공지능이 학습하는 데이터는 인간으로부터 기인한다. 이 때문에 데이터 원료 자체가 편향이 개입되기 십상. 인공지능이 편향을 가지는 것은 불가피하다. 지난 8월 미 법을 공부하는 대학생 알리바디 칸(alivardi khan)이 트위터를 통해 "'충분한 불빛'이 부족하다는 메시지 때문에 미국 변호사 모의시험(UBE Mock Test)을 치르지 못했다"며 낮은 흑인 얼굴 인식률을 지적한 사례가 있다. (관련기사 링크) 인공지능을 ’결정‘ 단계에 도입하기 위해선 이런 편향을 조심해야 한다.

2. 숨겨진 편향 Hidden Bias

이름에서도 알 수 있듯이 인공지능의 편향 중 가장 개선하기 어려운 것은 ‘숨겨진 편향’이다. 숨겨진 편향은 고의적인 편향이 아니기에 잘 드러나지도 찾을 수도 없다.

이러한 편향을 가진 인공지능은 완벽한 이력서와 완벽한 면접을 해낸 면접자를 알 수 없는 이유로 탈락시킬 수도 있다. 인공지능 필터링에 전적으로 의지하는 인사팀은 회사의 잠재적인 귀중한 자원을 놓칠 수도 있는 셈이다. 중요한 결정을 요하는 작업에서는 인간이 적극 개입하고 인공지능은 참고의 형태로 보조해야 숨겨진 편향이 야기하는 문제에 대응할 수 있다.

3. 데이터 표본 편향 Data Sampling Bias

인공지능 학습에 사용되는 자료가 수집 단계에서 문제가 생긴다면 데이터 샘플링 편향이 생긴다. 데이터 중 남자가 의사인 경우가 많고 여자는 간호사가 많은 경우. 남자는 의사, 여자는 간호사로 단정하는 경우가 생길 수 도 있다. 인공지능을 통한 인력채용을 시도한 아마존(Amazon)은 얼마 가지 않아 인공지능의 알고리즘을 손봐야 했는데 이는 상대적으로 남성의 이력서에 많이 사용되는 “executed”와 “captured” 같은 단어를 사용한 사람들에 한해 채용을 하도록 학습을 했기 때문이다.

4. 롱테일 편향 Long-tail Bias

롱테일 편향은 학습에 사용되는 데이터에 특정 종류(카테고리)의 데이터가 빠져 생기는 편향이다. 예를 들어 주근깨가 있는 사람의 데이터가 없는 얼굴 인식 인공지능은 이를 ‘흑인’ 또는 ‘사람이 아님’으로 분류할 수 도 있다. 현시점의 인공지능 기술은 ‘처음 본것’에 약하다. 롱테일 편향의 문제는 자율주행 인공지능 시스템 개발에 큰 걸림돌이 된다. 실제로 2018년 5월 자율주행센서가 보행자를 차량이나 자전거로 잘못 식별해 사고를 낸 사례가 있다. 차로에 비닐봉지나 큰 장애물이 처음 감지하는 것이라면 인공지능이 오판할 여지가 있다.

5. 고의적 편향

고의적 편향은 가장 위험하다. 해킹이나 공격을 통해 인공지능이 의도적으로 편향이 부여될 수 있다. 또한, 이런 불순한 의도로 생긴 편향들은 포착하기 어렵게 숨겨지기에 더욱 위험하다. 산업 여러 방면에서 인공지능 도입이 가속화 하면서 이러한 사이버 공격에 대한 대비는 더욱 중요해지고 있다. 고의적인 편향 공격에 노출된다면 인공지능을 도입하지 않은 격 못하기 때문. ‘최적화’를 달성하는 인공지능 활용에서 이는 가장 치명적일 수 있다. 요소 단 하나로 모든 결정이 어긋날 수 있다.

바이든 당선 예측성공한 AI, 아직 고칠 게 많다

AI윤리 문제와 14가지 흥미로운 통계

 

저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지