▲미 국방부 청사(사진=셔터스톡) ©AI타임스
▲미 국방부 청사(사진=셔터스톡) ©AI타임스

(AI타임스=윤광제 기자) AI가 전장에 합류하면서 펜타곤이 윤리주의자를 찾아 나섰다.

인공지능이 미군에 도입돼 헬리콥터 정비부터 물류, 채용까지 모든 것을 변화시키고 있다. 하지만 AI가 전장에서 수행되는 임무 중 가장 우려를 낳고 있는 ‘생명을 빼앗는 일’에 연관되면 어떻게 될지에 대해 군사 전문가와 윤리 학자들이 저마다의 입장을 밝히면서 논란이 일고 있다.

국방부 새 합동 인공지능 센터장(Joint Artificial Intelligence Center, 이하 JAIC)이 최근 기자들에게 브리핑을 했을 때, 그는 전쟁 사업에 기계 학습을 하는 것은 매우 실용적이면서 지루할 수도 있다는 것을 강조했다.

잭 샤나한 중장은 “AI가 블랙호크 헬리콥터에 도입할 수 있는 ‘예측정비’와 ‘지능적 비즈니스 자동화’가 ‘백오피스 기능의 효율성’에 대해 기대감을 높일 것”이라고 말했다. 또 “AI는 국방부의 재난구호를 더 잘 관리하는데 도움을 줄 것”이라며 인도주의적인 전망도 내놓기도 했다.

샤나한 중장은 “2020년에 JAIC의 ‘가장 큰 프로젝트’는 이 센터가 ‘작전과 화력에 대한 AI’라 부르는 프로젝트가 될 것”이라고 발표했다. 미국 군사용어로 굳이 말하자면 ‘가속화된 센서와 화력 연계", 드론의 ’자율적이며 체계적인 군집 시스템’쯤으로 해석되는 이 프로젝트는 미국의 적들을 겨냥하는 것도 포함하는데, 이는 결국 전쟁이 사람을 죽이는 행위를 수반한다는 것을 상기시킨다.

기자회견장에서 군사적인 목적으로 AI를 적용하는 데 ‘어떤 제한’이 있어야 하는지에 대한 질문을 받았을 때, 샤나한 장군은 기다렸던 것처럼 이것이 JAIC가 AI 윤리학자를 고용해 그 팀에 합류할 것이라고 언급하기에 적절한 기회임을 인식하고 “AI의 안전하고 합법적인 사용에 대해 깊이 생각하고 있다”고 원칙적인 답변을 했다.

인공지능과 기계학습이 군사 업무에 도입이 되면서 이런 진보된 기술들이 생명을 빼앗는 데 더욱 직접적이며 치명적인 역할을 하기 시작하고 있다. 미 국방부가 AI 윤리학자를 채용하기로 결정한 것은 지능적인 기계를 전장에 들여오는 것은 도덕적으로 매우 어려운 판단을 요구하는 문제를 일으킬 것이라는 인식이 반영된 것이다.

샤나한 중장은 “개인적으로 대중과 참여하는 모든 일마다 사람들은 윤리에 대해 이야기하기를 원한다”고 말했다.

그는 이어 “윤리학자를 고용하는 것은 그의 첫 결단은 아니었다”고 인정한 뒤 “1년 전에는 윤리학자를 고용한다는 생각을 안 했지만 지금은 정책 결정에 있어서 가장 염두에 두고 있는 사항”이라고 강조했다.

그는 “AI에 대해 말할 때면 킬러 로봇이 토론의 주제로 갑자기 떠오르는 경향이 있었지만 이제는 토론 풍경도 달라졌다”고 설명했다.

▲킬러로봇 이미지(사진=셔터스톡) ©AI타임스
▲킬러로봇 이미지(사진=셔터스톡) ©AI타임스

그는 이어 “이들의 윤리 문제는 실제로 매일 표면으로 떠오르지 않았는데, 당시 여전히 물체를 감지, 분류, 추적하는 것은 인간들의 몫이었고, 거기에 관련된 무기는 없었기 때문”이라고 덧붙였다

그러나 작전과 화력에 대한 AI 프로젝트와 관련해서 “인공지능의 윤리적 고용과 같은 것에 대해 생각해본 적은 없지만 우리는 그것을 매우 진지하게 받아들인다”고 입장을 밝혔다.

미 국방부 지도자들은 미국의 적들을 사살하는 것과 관련된 어떤 AI 임무에서도 ‘인간의 활동을 주시할 것’ 거듭 강조한다.

그러나 샤나한 장군은 "AI의 살상기술력이 어느 정도까지 발전해 갈 수 있는지에 대해 사람들이 불안을 느낄 정도로 AI 기술력은 급변하고 있으며, 이에 대한 인간의 반응도 다양하다"고 말했다.

신미국안보센터의 폴 샤레 기술국가안보 프로그램 책임자는 “미 국방성은 이미 국제전법에 묶여 있지만, JAIC 윤리학자는 ‘어떻게 하면 윤리적으로 계속 행동할 수 있도록 AI를 이용할 것인가?’라는 어려운 문제에 직면할 것”이라고 말했다.

샤나한 중장의 표현대로, “AI를 국방부 조직에 접목하기 위해 필요한 것은 무엇인가"하는 군사적인 이해의 어려운 문제를 묻는 것이 윤리학자의 일이 될 것이다.

▲ AI 전투장비의 해외경쟁
대부분의 미국 관리들은 인권과 시민의 권리 보호를 위해 군의 AI 능력을 개발하는 것이 중요하다는 데 동의하지만, 한편으로는 동일한 윤리적 기준을 지키지 않을 수도 있는 첨단 기술로 무장된 적들로부터 미국의 국가 안보를 보호하는 것에 대해서도 소리 높여 경쟁하는 경향이 있다.

샤나한 중장은 이러한 긴장에 대해 “그 핵심은 디지털 시대에 국제질서의 성격을 놓고 경쟁하는데 있다"면서 ”‘자유롭고 민주적인’ 사회의 가치를 반영해야 한다“고 말했다. 다만 “중국이나 러시아가 이런 부분에 대해서 같은 종류의 강조를 하고 있는 것 같지는 않다”고 쓴소리를 덧붙였다.

샤나한 장군은 "중국의 AI 기술 도입 속도가 미국에 비해 우위에 있다"고 주장했다. 그는 “그들은 최소한 내가 본 바로는 그들이 그러한 제한을 가지고 있지 않기 때문에 도입속도가 빨랐던 것”이라고 설명하면서 “내가 보고 싶지 않은 것은 우리의 잠재적 적들이 AI가 가능한 무장을 하는 것이고, 우리는 그렇지 않은 미래"라고 힘주어 말했다.

샌루이스 오비스포 캘리포니아 폴리테크닉 주립 대학의 AI 및 윤리학 교수 패트릭 린은 “윤리학자들이 얼마나 많은 권력을 가지고 있는지에 따라 이러한 긴장들 중 일부를 조정하는데 도움이 될 수 있다”고 말했다.

미 국방부가 안면 인식이나 표적 신분증에 초미의 관심이 있다고 하지만 윤리학자는 붉은 기를 들고 '절대 안 돼'라고 말한다.

“그렇다면 어떻게 되는 것인가?”

린 교수는 이 질문에 대해 “자문 역할이 될 것이냐, 아니면 이 사람이 거부권을 가질 것이냐”라는 기로에 서는데 ‘후자는 가능성이 없어 보인다’고 말했다.
 
“한 사람에겐 엄청난 권력이고, 정치적 현실을 무시하는 것이다. JAIC가 이 특정 AI 기술을 출시해서는 안 된다는 AI 윤리주의자의 의견에 동의한다고 해도, 우리는 여전히 정치 지도자들의 지배를 받고 있기 때문”이라고 현실을 상기시켰다.

▲전쟁의 윤리
캘리포니아 대학 UC버클리 컴퓨터 과학 교수 스튜어트 러셀은 “윤리학자들은 ‘전 세계의 많은 정당들이 비윤리적으로 사용될 가능성이 있는데도 잘 훈련된 미군이 윤리적으로 용인될 수 있는 무기를 만들고 배치하는 것은 괜찮은가?’라고 고심할 것”이라고 말했다.

그는 또 “지금까지 미 국방부가 치명적인 자주 무기들을 개발하고 배치하는 등 자신이 직면한 주요 윤리적 함정에 대해서 매우 강력한 내부적 제약을 가했다”고 덧붙였다.

실제로 국방부 관계자들은 “인간 개입 없이 작동하는 ‘킬러 로봇’을 개발할 계획이 없다는 사실 외에도, 인공지능은 위험한 적을 더 정확하게 제거함으로써 민간인 사상자의 가능성을 줄일 수 있다고 주장한다.

▲걸프전 당시 미군의 공격에 초토화된 이라크 전차부대(사진=셔터스톡)©AI타임스
▲걸프전 당시 미군의 공격에 초토화된 이라크 전차부대(사진=셔터스톡)©AI타임스

린 교수는 “로봇의 정확도는 전쟁에서 절대적인 도움이 될 수 있으며 몇몇 문제가 되는 윤리적 문제들도 제기될 수 있다”면서 “로봇이 사용하는 정확도의 총이 인간과 어떤 차이를 보일지 알 수 없지만 인간 저격수들이 펼치는 90% 치사율은 ‘엄청난 발전’이라고 말할 수 있다”며 90%대의 명중률의 보이는 로봇이 있다면 그 또한 엄청안 성능임을 애둘러 말했다.

린 교수는 이어 미군은 1차 걸프전 당시 미군이 단기간에 압도적 화력으로 이라크군을 무력화시켜 더 많은 민간인들을 전쟁의 포화로부터 지켜냈다는 점을 거론하며 “전장에서 명예를 걸고 적과 싸워서 자비의 가능성을 어느 정도 제시하면 화해의 가능성이 보장된다" 며 "이는 ‘영원한 평화를 위한 토대’를 마련하기 위한 우리의 전쟁 윤리”라고 주장했다.

단기간에 압도적 화력으로 주력부대를 제거하는 것이 도덕적으로는 잔인해 보일 수 있지만 비슷한 화력으로 장기전이 벌어질 경우 발생하는 대량의 인명피해보다 결과적으로 더 많은 사람들을 전쟁의 참상으로부터 보호할 수 있다는 논리는 자국의 이익이 정의로 통하는 국제사회에서 시사하는 바가 큰 대목이다.

【에이아이타임스 aitimes 에이아이타임즈】