'책임 있는 AI' 연구소...AI의 비윤리, 편견 막도록 연구하는 곳
데이터 팀의 정확한 업무 수행 위해 미션 컨트롤 플랫폼 구축
허용하지 않는 데이터 사용 시 중앙 관제 시스템이 정지시켜

인공지능이 급속도로 발전하고 있으나 윤리 문제가 발생하고 있다. (사진=셔터스톡)
인공지능이 급속도로 발전하고 있으나 윤리 문제가 발생하고 있다. (사진=셔터스톡)

지난 20년간 인공지능은 인간에 도전해왔다. 인공지능이 코딩된 대로 작동하는 단계에서 학습을 통해 스스로 코딩을 변경하고 자율적인 결정을 내리는 단계로 발전한다면 필연적으로 윤리 문제를 발생시킨다.

'책임 있는 AI(Responsible AI)'는 인공지능의 발전을 둘러싼 과제를 윤리적, 법적 관점에서 해결하고자 하는 개념이다. 최근 미국에선 '책임 있는 AI 연구소(The Responsible AI Lab, AIRL)' 가 설립돼  AI의 윤리, 사생활 침해, 편견 문제 등을 기술적으로 푸는 연구를 하고 있다.

이 연구소가 최근 중앙관제 소프트웨어(Mission Control SaaS) 플랫폼을 선보이고 연구자금 200만 달러 유치를 발표하면서 AI윤리 수립 노력에 동참하고 있다고 IT 전문 매체 벤처비트[Venture Beat]가 지난 24일 보도했다.

AI 책임 연구소(AIRL)CEO인 램지 브라운(Ramsay Brown) 부사장은 미국 서던 캘리포니아 대학에서 컴퓨터 신경과학을 연구했고 인간의 뇌를 매핑하는 데 많은 시간을 보냈다.

그의 첫 번째 스타트 업은 사람들이 어떻게 행동할지를 예측을 하기 위해 머신 러닝을 사용하는 방법에 초점을 둔‘바운드리스 마인드(Boundless Mind)’ 랩으로 알려져 있다. 이 랩은 지난 2019년 스라이브 글로벌에 인수됐다.

AIRL의 미션 컨트롤 플랫폼은 AI의 비윤리적 데이터를 모니터링한다. (사진=셔터스톡)
AIRL의 미션 컨트롤 플랫폼은 AI의 비윤리적 데이터를 모니터링한다. (사진=셔터스톡)

미션 컨트롤(중앙관제) 플랫폼 구축

브라운과 그의 연구팀은 AI가 사회나 기술 조직에 해를 끼치지 않는 방식으로 책임감 있게 이용되도록 AI 안전 문제를 다루고 있다브라운 부사장은 "우리는 데이터 과학 팀이 업무를 더 잘, 더 정확하게, 더 빠르게 수행할 수 있도록 돕기 위해 회사를 설립하고 미션 컨트롤(중앙관제)용 소프트웨어 플랫폼을 구축했다"고 말했다.

“'책임 있는 AI' 연구계를 둘러보면 거버넌스 및 규정 준수를 위해 일하는 사람들이 있지만 그들은 데이터 과학 팀과 대화하지 않고 무엇이 실제로 해를 끼치는지 알아내지 못하고 있다고 지적했다.

아울러 어떤 조직도 의도적으로 편향되거나 데이터를 비윤리적인 방식으로 사용하는 인공지능을 구축할 것 같지는 않으며 오히려 복잡하게 연결된 많은 개발 조직 또는 불완전한 데이터로 훈련된 머신 러닝 모델에서 의도치 않게 데이터가 잘못 사용될 수 있다고 그는 주장했다.

브라운과 그의 팀은 데이터 과학자들에게 무엇이 누락되었고 개발 노력에 어떤 타격을 주었는지를 물었을 때 응답자들로부터 컴플라이언스(준법감시) 프레임워크보다는 프로젝트 관리 소프트웨어를 더 찾고 있다는 말을 들었다.

컴플라이언스 프레임워크(Compliance framework)는 조직의 유지 관리 프로세스를 자세히 설명하는 구조화된 지침의 집합이다. 즉 팀들이 실제로 놓친 것은 규정을 몰라서가 아니라 소속팀이 무엇을 하고 있는지 모른다는 것이다.

20년 전에 브라운은 아틀라시안 지라(Atlassian’s Jira) 같은 대시보드 툴을 개발했는데 이 혁신적인 툴이 개발자들이 소프트웨어를 더 빨리 만들 수 있도록 도와주었다고 언급했다이제 그의 희망은 연구소(AIRL)의 미션 컨트롤 플랫폼이 데이터 팀의 책임 있는 AI 기술을 개발하는 데 도움이 되는 대시보드를 구축하는 것이다.

비 윤리적 데이터가 사용되면, 워크플로우가 자동 정지된다.  (사진=셔터스톡)
비 윤리적 데이터가 사용되면, 워크플로우가 자동 정지된다. (사진=셔터스톡)

위반 시 워크플로우 자동 정지

오늘날 AI 및 머신 러닝 워크플로우를 관리하는 데 사용할 수 있는 도구는 여러 가지가 있는데 때로는 MLops(머신러닝, 개발, IT 운영을 결합한 통합적인 접근법)라는 산업 범주 아래에 함께 그룹화 된다.

인기 있는 기술로는 AWS 세이지메이커, 구글 버텍스 AI, 도미노 데이터랩, 빅판다 등이 있다그는책임 있는 AI 연구소는 MLops 및 기존 AI 툴과 경쟁하기보다는 책임 있는 AI 사용을 위해 오버레이(Overlay: 여러 화면을 겹쳐서 한눈에 정리해 보여주기)를 제공하는 것을 고려하고 있다고 말했다.

이를 위해 연구소의 미션 컨트롤 플랫폼은 팀을 위한 프레임워크를 제공한다. 그들이 임시 접근 방식으로 수행해온 것을 그대로 유지한 채 머신 러닝과 AI 운영을 위한 표준화된 프로세스를 만들 수 있는 툴을 제공하는 것이다브라운은미션 컨트롤은 사용자들이 데이터 사이언스 노트북을 사용할 때 이를 책임감 있는 AI 사용을 위해 작동하는 워크플로우로 바꿔준다고 말했다.

이러한 모델에서 데이터는 정책을 위반할 경우 조직에 경고를 보낼 수 있는 모니터링 시스템에 연결된다는 것이 그의 설명이다일례로 데이터 과학자가 정책에서 윤리적으로 허용하지 않는 데이터 세트를 특정 머신 러닝 작업에 사용할 경우 미션 컨트롤(중앙관제기능)이 이를 자동으로 포착해 관리자에게 알리고 워크플로우를 일시 중지할 수 있다.

브라운은정보의 중앙 집중화는 더 나은 조정과 가시성을 만들어낸다이는 바람직하지 않은 결과를 초래할 가능성을 가진 시스템이 결국 생산으로 귀결되지 않도록 만든다고 강조했다.

AI타임스 조행만 객원기자 chohang5@kakao.com

키워드 관련기사
  • [AI 주간브리핑] AI 윤리 확산에 팔 걷어붙인 정부
  • 정부, AI 윤리 확산 나섰다...'제1기 인공지능 윤리 정책 포럼' 출범
  • AI가 낸 사고 다루려면 어떤 법 필요할까? 자율주행차부터 AI 챗봇까지