장하경 광주대 교수, AI 토크콘서트서 'AI윤리‘ 발제
4차산업 시대 사회복지사, ‘복지와 기술’ 이해 필요
두 가지 분야에 지식 갖춘 인재 양성 중요성 강조

장하경 광주대학교 사회복지학부 교수는 미래 4차산업혁명 시대에는 사회복지사들도 인간 대 기술 구도에서 발생하는 '윤리 딜레마'를 해결해야 할 의무가 있다고 주장한다. (사진=AI타임스). 

1. 코로나19가 바꾸는 미래 : 이슈와 전망
2. 지능정보시대의 지역 R&D 정책방향
3. ‘왜 인공지능인가?’
4. 대학교육과 AI 융합교육
5. 광주광역시 AI집적단지 추진현황
6. 인공지능과 윤리

“4차산업혁명 시대 사회복지 영역은 ‘윤리적 딜레마’를 해결할 의무가 있다”

장하경 광주대학교 사회복지학부 교수의 말이다. 장 교수는 지난 6월 24일 '포스트코로나 시대 AI 융합기술의 전망‘을 주제로 열린 호남대학교 토크콘서트에서 ’인공지능과 윤리‘라는 주제로 발제하며 이같이 주장했다. 그는 이 자리에서 인간의 ’인격‘과 첨단기술의 ’비인간의 인격‘ 사이에서 발생하는 윤리적 딜레마는 ’새로운 윤리기준‘을 마련해 개선해야 한다고 역설했다.

"AI로 인한 새로운 편견조장은 그에 맞는 '새로운 윤리기준'을 마련해 개선해야 한다" 장하경 교수가 AI시대에 앞서 강조하는 부분이다.

 

인공지능, 세 가지로 구분된다

장 교수는 먼저 인공지능을 크게 세 가지로 분류할 수 있다고 설명을 시작했다. 첫 번째로 ‘좁은 인공지능(Narrow AI)’이다. 특정영역에서 문제를 푸는 인공지능으로, 구글이 개발한 알파고가 대표적이다. 두 번째는 ‘범용 인공지능(General AI)’이다. 범용 인공지능은 인식을 학습하는 인간수준의 인공지능으로, 패턴이나 규칙을 보고 인지훈련을 거듭해 완성된다. 그 다음 단계로 ‘초인공지능(Super AI)'은 인간과 똑같이 독립적 존재로 구분될 만큼 자유의지를 갖춘 존재다.

이처럼 세 가지 기본 인공지능 분류에 대해 설명한 뒤 장 교수는 “현재 AI는 ‘좁은 인공지능’ 단계까지 상용화가 이뤄졌다”고 말했다. ‘좁은 인공지능’에서 ‘범용 인공지능’으로 발전해가고 있는 수준이며, ‘초인공지능’은 시간이 걸릴 것이라고 장 교수는 전망했다. 인간이 AI와 다른 점은 지능에서가 아닌, 정서와 감정을 본능적으로 느낀다는 데 있다고 말했다. 장 교수는 바로 이 점이 사회복지사라는 직업이 4차산업혁명 시대에도 필요한 이유라고 강조했다.

장하경 교수는 인공지능과 윤리의 중요성에 대해 강조하기 앞서 '인공지능에 관한 세 가지 분류'에 대해서도 간단히 설명했다. 그에 따르면 현재 AI 기술은 '좁은 인공지능'에서 '범용 인공지능'으로 발전하고 있다. (사진=AI 타임스). 

 

인공지능의 윤리, 더욱 더 필요성 느껴

이후 장 교수는 AI 오작동과 오남용의 가능성을 비롯해 군사적 목적으로 AI를 사용하거나 알고리즘 설계과정에서 설계자의 편견에 맞서는 ‘인공지능 기본윤리’가 필요하다고 주장했다. 그는 의도적이건, 의식 하지 못한 과정에서건 AI를 설계하고 학습시키는 과정에서 어떤 형태로든 편견이나 한쪽의 이익만 추구하는 상황이 벌어질 수 있다고 경고했다. 이같은 일을 피하기 위해서는 국가에서 윤리기준을 제정해야 한다.

장 교수는 과거 윤리규정 사례를 들어 설명을 이어갔다. 그는 지난 2007년 산업자원부가 시도한 ‘로봇윤리헌장’을 예로 들었다. 윤리헌장은 당시 세계 최초로 한국정부가 로봇공학 교수, 심리학자, 의사 등 12명의 전문가들과 함께 제정한 AI 윤리규정이다. 산업현장 전문가들의 의견을 취합해 그해 공식발표할 예정이었다. 그러나 이해관계에 부딪혀 논의가 중단돼 공표되지는 못했다.

유럽 집행위원회(EU)는 지난 2019년 인공지능 3개원칙과 7대 핵심 가이드라인을 발표, 현재 시범단계를 거치는 중이다. EU는 4차산업혁명의 지속적 발전은 AI 경제를 더욱 가속화 할 것이라고 내다봤다. AI가 사회적 문제로 제기되는 것을 막기 위해 현재 EU는 시스템 보안과 편견, 차별, AI로 조장되는 인권문제를 타파하기 위한 윤리지침을 세우는 데 노력을 다하고 있다. 장 교수는 “국내에서도 학자들과 IT 기업인 등 AI 전문가들이 모여 이같은 논의를 거쳐 새로운 윤리법을 제정해야 한다”고 말했다.

대한민국은 지난 2007년 세계 최초로 '로봇윤리헌장' 제정을 시도했다. 장 교수는 이에 대해 비록 실패로 끝났지만 큰 의미가 있다고 평가했다. 또한 "이같은 경험을 살려 앞으로 새로운 AI윤리법을 제정하는 데 서둘러야 한다"고 강조했다. (사진=AI 타임스).  

 

사회복지사, AI 시대 새로운 기본지식 갖춰야

장 교수는 4사산업사회 속 전문사회복지사는 두 개의 영역에서 기본지식을 갖춰야 한다고 말했다. 미래 사회복지 분야는 복지와 기술에 대한 지식을 아우르며 융합의 소통이 가능한 사회복지전문가를 필요로 하기 때문이다. 더불어 장 교수는 "사회복지사 스스로 인간의 인격과 기술의 인격 사이에서 발생가능한 윤리적 딜레마를 해결하는 스스로의 윤리기준도 갖춰야 한다"고 역설했다.

이같은 인재를 양성하기 위해서는 교육프로그램이 절실하다. 장 교수는 복지인력 전문성 강화는 물론 4차산업시대를 대비해 기술에 대한 지식도 갖춘 인재발굴을 위한 교육프로그램이 강화돼야 한다고 주장했다. 그것이야말로 대한민국이 AI시대를 문제없이 선도하고, 모두가 AI로 인해 불이익도 받지 않는 사회로 이끄는 길이라고 강조했다. 

(왼쪽부터)한은미 전남대학교 부총장, 장하경 광주대학교 교수, 이신두 서울대학교 교수, 최희윤 한국과학기술정보연구원 원장, 손경종 광주광역시 AI산업국장, 백란 호남대학교 교수. (사진=AI타임스).
(왼쪽부터)한은미 전남대학교 부총장, 장하경 광주대학교 교수, 이신두 서울대학교 교수, 최희윤 한국과학기술정보연구원 원장, 손경종 광주광역시 AI산업국장, 백란 호남대학교 교수. (사진=AI타임스).