한상기 테크프론티어 대표, 지능정보산업협회 조찬포럼서 발표
“AI 윤리 원칙을 기술 개발에 어떻게 활용할 것인지가 중요”
단어 의미론 고려하지 않는 초거대 AI 모델...공정성 문제 이유

한상기 테크프론티어 대표(사진=박성은 기자)
한상기 테크프론티어 대표(사진=박성은 기자)

인공지능(AI) 윤리를 실현하기 위해서는 기술 개발 과정에서 실제 사용할 수 있는 방법론을 마련해야 한다는 전문가 진단이 나왔다. 추상적인 AI 윤리 원칙과 가이드라인은 국내외에서 이미 충분히 제시했기 때문.

특히 초거대 AI 모델의 경우 기술적 특징이자 한계가 공정성과 같은 윤리 문제를 발생시킬 수밖에 없다는 지적이다.

AI 윤리 대책 마련 과정에서 공정성 이외 윤리적 의사결정 능력, 투명성, 견고성 등도 고루 반영해야 할 필요성도 제기됐다. 현재는 기업 입장에서 소송을 당할 위험이 큰 공정성에 치우쳐 있는 상황이라는 것.

한상기 테크프론티어 대표는 10일 열린 지능정보산업협회 조찬포럼에서 AI 윤리 실현을 위한 핵심 과제를 제시했다.

이날 행사에서 한 대표는 “OECD, EU 등 여러 국제 기구에서 각자 AI 윤리 원칙을 만들었는데 문제는 이를 어떻게 활용할 지에 대한 내용은 없다. 윤리적인 AI 구현을 위해 기술적으로 어떻게 접근해야 하는지가 중요하다”고 말했다.

그러면서 “원칙과 가이드라인 얘기는 이제 그만하자. 기술적으로 어떻게 접근할 것인가에 집중할 필요가 있다”고 강조했다.

특히 최근 AI계 최고 이슈인 초거대 AI의 경우 기술적인 특성 자체가 공정성 문제를 발생시킬 수 있다는 것이 한상기 대표의 주장이다.

한 대표는 “GPT-3 같은 모델에 대한 비판은 언어지능에 대한 본질적 문제에 해당한다. 단어 의미론(semantics)을 고려하지 않은 통계적 접근 방식이 맞는지부터 의문이다. 이로 인해 공정성 문제가 발생하는 것이 가장 문제”라고 지적했다.

이어 “인터넷 상 크롤링 데이터를 대거 학습했기에 젠더, 인종, 종교 등에 대해 편향된 내용이 있는 데이터 영향을 받을 수밖에 없다. 모델 자체가 아니라 학습 데이터 문제”라고 말했다.

공정성 문제에 대한 대책으로 MS, 구글과 같은 빅테크 기업들은 개발자를 위한 툴킷 라이브러리를 구성 중인 상황이다.

한 대표는 “관련해서 국내 기업 사례는 아직 못 들었다. 지능정보산업협회에서 관련 작업을 할 예정인 것으로 알고 있다”고 전했다.

한상기 테크프론티어 대표(사진=박성은 기자)
한상기 테크프론티어 대표(사진=박성은 기자)


◆공정성은 가장 많이 다뤄진 주제...기업 알고리즘 공개는 코드 오픈 의미 아냐

한상기 대표는 AI 윤리 영역을 크게 공정성 투명성 윤리적 판단 능력 견고성 4종류로 나눠 설명했다. 이 중 공정성은 현재 공개된 대부분의 AI 윤리 원칙에서 가장 많이 다루는 주제다.

한 대표는 “공정성에 대한 논문이 많다. 기업 입장에서 소송이 바로 걸릴 수 있는 주제이기 때문”이라며 AI 윤리 방법론 마련에 있어 다른 주제도 고루 반영할 것을 주문했다.

공정성의 대표적인 예시로는 인종 차별을 하는 얼굴인식 기술을 들었다. 그는 “우리나라에도 얼굴인식 기업들이 많은데 이주 외국인 노동자에 대해 기술을 적용하면 인식률이 얼마나 될지 의문이다. 외국에는 포괄적 차별금지법이 있는 만큼 관련해서 크게 신경쓰지만 우리나라는 그렇지 않다”고 말했다.

투명성은 최근 우리나라에서 관련 법안이 여러 개 등장하면서 많은 관심을 받고 있는 주제다. 한상기 대표는 알고리즘 공개에 대한 필요성을 인정하는 입장이다. 다만 그 방법론에 있어서는 다른 의견이다.

한 대표는 “알고리즘 코드를 모두 공개하라는 의미가 아니라 어떤 데이터를 사용해 모델을 학습했고, 이 과정에서 진행한 의사결정을 공개하라는 것”이라며 알고리즘 공개 의무화 움직임에 대해 평가했다.

AI 투명성이 필요한 이유로 그는 “AI 시스템으로 영향을 받는 사람들이 결과를 이해할 수 있어야 한다. 채용이나 복지와 관련된 AI 결정에 대해 그냥 ‘AI가 결정했다’고 말할 수 없는 것이다. 왜 그런 결정을 했는지 설명할 수 있어야 한다”고 강조했다.

동시에 “모델 자체를 기술적으로 설명가능하게 만드는 것 이외에도 할 일이 많다. 설명을 어떻게 해줄 것인지도 결정해야 한다. 문장으로 혹은 비주얼적인 시각적 방법을 표현할 것인지에 대한 방법론도 중요하다”고 전했다.

윤리적인 의사결정을 하는 AI는 잘 다뤄지지 않는 주제다. 철학적 가치가 충돌하는 상황에서 AI가 어떤 결정을 할 것인지 판단하는 문제인데 관련해서도 할 일이 많다는 것이 한상기 대표의 주장이다.

그는 “예를 들어 코로나 손실 지원금을 어떤 사람에게 우선적으로 제공할 것인지와 같이 복지 정책 우선 대상에 대해 AI가 결정하는 일은 쉽지 않다. 자율주행차가 사고를 피하기 위해 보행자와 운전자 중 누구를 보호해야 할지도 같은 종류의 문제”라고 설명했다.

이어 “이에 대해 칸트적 탑다운 방식으로 혹은 바텀업 경험 학습을 통해 AI에게 결정하게 할 것인지 의논해야 한다. 하나가 아닌 멀티 에이전트일 시 AI가 어떻게 윤리적 판단을 할 것인지도 고민해야 할 주제”라고 말했다.

견고성은 군사, 보안, 딥페이크 영역에서 주로 언급되는 주제다. 인간과 다른 AI에만 영향을 미쳐 판단에 혼돈을 주는 경우를 의미한다. 관련 대책으로 미국 국방부 고등연구계획국(DARPA)에서는 AI 넥스트 가드(AI NEXT GARD) 프로젝트를 시작했다.

한상기 대표는 “우리나라에서도 AI 관련 기술 성과와 논문을 많이 냈다. 여기에 AI 안전, 공정, 투명성까지 확보하면 경쟁력이 될 것이다. 공학자와 인문사회학자가 같이 일을 해야 하는 시점에 왔다”고 전했다.

 

AI타임스 박성은 기자 sage@aitimes.com

[관련기사]"AI가 한 결정을 그대로 수긍하는 게 맞을까?"...'신뢰할 수 있는 인공지능' 저자 한상기 대표 인터뷰

[관련기사]국회 발의된 AI 법안들, 통과 가능? “기존 법과 가이드라인부터 활용해야”

키워드 관련기사
  • 인공지능윤리, 그 잠재성의 중심
  • [AI 법제도 따져묻기] ② "미래 완전자율주행차 법, 택시기사도 납득시켜야"
  • [AI북터뷰]서울대 고학수·윤성로 교수가 말하는 '설명가능한 AI의 모든 것'