오픈AI 일부 직원들이 최근 안두릴과 체결한 군사용 인공지능(AI) 파트너십에 대해 윤리적 우려를 제기했다는 소식이 전해졌다.
워싱턴포스트는 7일(현지시간) 오픈AI 직원들이 내부 게시판에서 AI 기술을 군사적 용도로 제공하는 데 대한 불만을 표명했다고 보도했다.
오픈AI는 지난 4일 안두릴과의 협력 사실을 발표하며 AI 기술을 미군의 드론 방어 시스템을 개선하는 데 국한된다고 강조했다.
그러나 일부 직원들은 이 기술이 사람이 조종하는 항공기를 겨냥하거나 다른 광범위한 군사적 목적에 사용될 수 있다는 우려를 표명했다.
일부는 이번 파트너십이 오픈AI의 이미지에 부정적 영향을 미칠 수 있다고 지적했다. 방어적 목적이라도 결국 군사화로 이어질 수 있다고 비판했다. 한 직원은 영화 '터미네이터'의 AI 방어 시스템 '스카이넷'을 예로 들며 방어 시스템이 공격적인 용도로 변할 가능성을 지적했다.
또 일부는 무기 제조업체와의 거래에 대한 의미를 축소하려는 경영진의 태도에 대해 불만을 표하며, 투명성을 요구했다.
오픈AI의 경영진은 이런 우려를 인정하며, 이번 협력이 미국인의 생명을 구하는 방어 시스템 개발에 집중하고 있다고 강조했다. 샘 알트먼 CEO는 "국가를 보호하는 사람들의 안전에 기여하는 것에 자부심을 느낀다"라고 밝혔다.
또 민주적으로 선출된 정부에 첨단 AI 기술을 제공하는 것이 중요하며, 이를 통해 외국의 권위주의 정권을 견제하고 국가 방위를 강화할 수 있다고 주장했다.
그러나 일부 직원들은 미국이 과거 문제 국가에 무기를 판매한 역사를 지적하며 반박한 것으로 알려졌다.
이번 논란은 AI 기업들이 방위산업과 협력하는 데 유연한 태도를 보이고 있는 최근의 변화 속에서 발생한 일이다. 앤트로픽은 팔란티어와 협력을 발표했으며, 메타도 AI 기술을 안보 기관에 제공한다고 밝혔다.
안두릴과 팔란티어와 같은 신흥 방위 기술 기업들은 첨단 기술을 군에 직접 판매하며 기존 방위 기업에 도전하고 있으며, 전문가들은 이런 기업들이 트럼프 행정부에서 성장할 가능성이 높다고 예측한다.
하지만 오픈AI와 같은 선도 기업들은 일부 직원들의 반대에 직면해 있다.
박찬 기자 cpark@aitimes.com
