▲인공지능기술이 발전하면서 인공지능의 위험성에 대한 우려도 커지고 있다(출처=셔터스톡)

인공지능(AI) 기술은 지난 몇 년 동안 엄청난 진전을 이루며 연구실에서 일반 소비자에게, 그리고 비즈니스로 크게 도약했다. AI는 이제 사람들의 삶을 개선하고 사회를 변화시킬 잠재력을 실현하는 기술이 됐다. 그러나 AI에 대한 위험 평가 없이는 현재의 사회 구조, 경제 시스템, 보안 시스템의 취약점이 공격받을 가능성이 있다.

AI의 잠재적 위험

루이빌대학 컴퓨터 공학 및 과학과 로만 얌폴스키가 저술한 '인공지능 안전과 사이버 보안 : AI 실패의 타임라인'에서 얌폴스키는 "과거에서 배우지 않는 사람들은 실패를 반복할 운명에 처한다"고 언급했다.

그는 여태까지 자물쇠가 어떻게 도둑들에게 따였는지, 지도자들이 어떻게 암살됐는지, 캡챠(CAPTCHA)가 어떻게 깨졌고 서명이 어떻게 위조됐는지를 예로 들며 AI도 마찬가지로 실패할 위험이 있다고 강조했다. 그리고 이런 실패는 기술을 개발하면서 진행된 퍼포먼스나 학습 과정과 직접적인 연관이 있을 것이다. 인간 디자이너가 한 가지를 달성하기를 원할 때 시스템이 다른 방법을 배울 수 있기 때문이다.

안전한 AI 개발하기

그렇다면 사람들은 어떻게 안전한 AI 시스템을 개발할 수 있을까? 센트럴플로리다대학 교수이자 우버(Uber) AI 연구소 수석 엔지니어링 매니저인 케네스 스탠리는 "AI 기술에 대한 우려 중 사람들의 가장 큰 관심사는 어떤 사람이 타인을 상처입히기 위해 AI 기술을 사용하지는 않을까하는 것이다. 하지만 다른 기술들도 마찬가지로 나쁜 일에 악용될 수 있다. 즉 사람들은 올바른 균혈과 안전성을 위한 조치를 마련할 수 있다"고 말했다.

그는 또한 사람들이 AI에 관한 지식을 점차 넓혀가야 한다고 조언했다.

▲전문가들은 사람들이 AI 기술을 사용할 때 주의 깊게 살피고 조심해야 한다고 경고했다(출처=셔터스톡)

AI 연구원과 정책 입안자

세계경제포럼에 따르면 AI를 공평하고 안전하게 개발하기 위해서는 복잡한 사회 경제적 시스템에 인간 참여를 통합해야 한다. 또 다른 방법은 책임있는 혁신과 연구를 촉진하는 것이다. 정책 입안자들은 AI 개발 과정에서 본다면 철저히 외부인들이며, 이들은 기술에 대한 지식이 제한돼 있기 때문에 AI 개발을 평가하는 데 어려움을 겪는다. 그래서 AI 기술자들의 입장에서 보면 얼토당토 않은 정책을 내놓기도 한다. 이를 해결하기 위해서는 연구자와 정책 입안자들이 힘을 합쳐 기술에 대한 심층적인 조사를 실시해야 한다.

그리고 정책 입안자와 함께 일하는 AI 연구원들은 AI가 사회에 미치는 영향 등의 측면을 더 잘 이해하고 예측하도록 심도 있는 연구를 수행해야 한다. 예를 들어 AI로 인한 직업 자동화 때문에 발생할 임금 변동, 직종 변화, 지역 갈등, 교육 등을 동시에 고려해야 한다.

안전 원리

안전 원리에서 가장 중요한 부분은 검증 가능성이다. 미 전기전자기술자협회(IEEE)의 존 헤이븐스는 "사람들은 안전함이나 안정성같은 단어에 불안을 느끼더라도 검증 가능성이나 진실로 입증됐다는 말에는 동의할 가능성이 높다. 그래서 검증 가능성이 중요하다"고 강조했다.

▲전문가들은 AI를 개발하거나 사용할 때 안전의 중요성을 강조했다(출처=셔터스톡)

가치와 안전의 정렬

캘리포니아 폴리테크닉대학의 철학자 패트릭 린은 "안전은 단지 기술적인 문제가 아니다"라고 주장하며 가치와 안전의 정렬에 관해 이야기했다. 그는 AI 안전에 대해 고려할 때 가치 정렬을 포괄해야 한다고 주장했다. 즉 AI를 특정 가치와 연결 짓고 규범 설정과 정책 결정이 모두 중요하다는 점을 인식함으로써 인간 가치의 다양성과 AI가 조화를 이루도록 만들 수 있다.

AI 중심 매거진인 비커밍 휴먼은 안전하고 지능적인 AI 개발의 열쇠를 발표했다. 그 중 하나가 바로 상호 의존성이다. AI는 인간이나 다른 AI, 다른 기계와 함께 작업을 진행하고 같은 목표를 이뤄야 한다. 따라서 AI가 상호 의존성의 가치를 파악한다면 AI는 안전해질 것이다. 그리고 사람들이 살아가는 데 법이 필요한 것처럼 AI를 다루는 데도 동일한 기능을 하는 법이 적용된다면 AI는 안전한 존재가 될 것이다.

이 잡지는 또한 해킹이 불가능한 AI를 만드는 것도 중요하다고 언급했다. AI는 리프로그래밍이 불가능한 방식으로 제작돼야 한다. 구글 브레인(Google Brain)의 리서치 과학자 이안 굿펠로우는 이에 동의하며 "AI 안전을 달성하기 위한 구체적인 길은 전통적인 보안 기술을 적용하는 것이다. 즉 AI가 애초에 바람직하지 못한 일을 하지 못하도록 시스템을 설계하는 것이다"라고 덧붙였다.