(사진=셔터스톡)
(사진=셔터스톡)

마이크로소프트(MS)와 구글이 인공지능(AI) 챗봇 경쟁에서 우위를 점하기 위해 'AI 윤리'보다는 '개발 속도'를 선택하고 있다는 내부 주장이 나왔다. 

뉴욕타임스는 7일(현지시간) MS와 구글 전현직 직원 15명과 이들 회사의 내부 문서를 인용해 양사가 모두 '챗GPT' 등장 이후 생성 AI 분야 선점 경쟁에 나서면서 내부 반대를 무릅쓰고 관련 제품을 서둘러 출시하고 있다고 보도했다.

이들 기업은 그동안 기술이 사회문제를 야기하지 않도록 하기 위해 윤리 지침을 운영하며 신중한 입장을 취해왔지만, 챗GPT의 놀라운 기능을 확인하고 난 뒤에는 위험을 감수하고 출시를 서두르는 방향으로 돌아섰다는 내용이다.

이에 따르면 구글은 AI 제품 검토를 맡은 직원들이 "아직은 챗봇이 부정확하고 위험한 답변을 생성한다'면서 반대했지만, AI 챗봇 '바드' 출시를 강행했다.  

또 지난 2월 검색 엔진 '빙'에 챗GPT를 도입한 MS에서도 윤리학자와 직원들이 비슷한 우려를 제기했지만 묵살했다. 이들은 여러 문서에 AI 챗봇 기술이 페이스북 그룹에 허위 정보를 퍼뜨리고, 비판적 사고를 저하시키며, 현대 사회의 사실 기반을 침식할 수 있다는 의견을 개진한 것으로 알려졌다.

(사진=셔터스톡)
(사진=셔터스톡)

MS의 경우는 지난달 아예 윤리 팀을 해체, 남아있던 AI 윤리 담당 팀원 7명마저 해고했다. MS 측은 여전히 수백명의 직원이 윤리적 노력을 기울이고 있다고 해명하고 있지만, 관련 조직을 없앤 것은 사실이다. 

양사는 직원들에게 AI 윤리보다는 챗봇 통합이나 개발을 독려하는 데 더 집중해왔다는 평가다.

MS는 샘 쉴레이스라는 기술임원이 직원들에게 보낸 메일에 "나중에 고칠 수 있는 일에 대해 걱정하는 것은 지금 이 순간에는 치명적인 오류"라면서 "새 기술이 나타났을 때 제품을 가장 먼저 내놓은 회사가 장기적인 승자가 된다"고 강조한 바 있다.

"챗봇이 때로 사실이 아닌 정보를 제공하는 속성이 있어 이를 검색 엔진에 통합하는 것은 나쁜 생각"이라는 내부 직원의 주장은 받아들이지 않았다.

순다르 피차이 구글 CEO는 챗봇 프로젝트를 우선시했고, 젠 겐나이 혁신그룹 이사는 팀원들이 제출한 바드에 대한 위험 평가에서 '챗봇은 아직 준비되지 않았으니 출시하지 말아야 한다'는 권고사항을 삭제했다.

이와 관련해 겐나이 이사는 "‘바드’는 실험이기 때문에 위험성을 점검하는 직원들이 프로젝트 진행 여부를 판단해서는 안 된다"면서 "부정확한 가정을 수정하고 실제 고려해야 할 위험과 피해를 추가한 것"이라고 해명한 것으로 전해졌다.

정병일 위원 jbi@aitimes.com

관련기사
저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지