산업발전과 윤리규범 경계에 선 AI...윤리 규범 만들고 유연한 법제화도 이뤄야

"인공지능(AI)은 '인간 모방'이라는 특성에 방점이 있다고 할 수 있습니다. 이같은 AI의 특징이 인간의 의사표시와 행위를 대상으로 법적 효력을 부여해 온 기존 법률 체계의 근간을 뒤흔드는 변혁이라고 생각합니다. AI에 관한 법제 정비 문제가 중요하게 인식돼야 할 이유도 여기에 있습니다."

정원준 정보통신정책연구원(KISDI) 전문연구원은 AI 법제 정비의 필요성을 이렇게 설명했다. 그는 ICT 전략연구실 AI전략센터에서 AI 시대에 대응하는 산업 및 사회 정책을 연구하고 있는 법학 박사다.

정 박사는 법학 박사이면서 동시에 오랜 시간 AI에 관해 연구해 온 전문가다. 사물인터넷(IoT)과 클라우드 컴퓨팅 관련 논문을 발표했고, 지난 2017년부터 2019년까지 지능정보사회추진단에 파견을 나가기도 했다. 당시 그는 'AI R&D 전략'과 'AI국가전략' 등 AI 정책 수립 과정에 직접 참여했다.

이를 계기로 현재 AI 관련 법적 이슈와 데이터 3법 개정에 따른 데이터 산업계 변화상, 향후 입법 과제 등을 연구하고 있다.

◇ 세계는 지금 AI가 가져다 줄 긍정적 혜택과 편익 누릴 준비를 하고 있다

"세계 각국은 AI 기술 개발을 서두르는 동시에 AI 윤리 가이드라인을 잇달아 발표하고 있습니다. 유럽연합(EU)의 '개인정보보호규정(GDPR)'이나 미국 국방부가 채택한 군사분야에서의 AI 사용을 위한 윤리 원칙 등이 그것 입니다. 경제협력개발기구(OECD)와 국제연합교육과학문화기구(UNESCO) 등 국제기구와 로마교황청까지 이 추세에 동참했습니다."

정 연구원은 이런 국제 추세는 AI의 불확실성과 통제 불가능이라는 특수성 때문이라고 설명했다.

"AI가 현실 세계에서 예측하지 못한 사고로 이어질 위험이 생겨 연산과정의 투명성 확보가 중요해진거죠. 포괄적으로 AI 기술은 수많은 단계의 레이어와 복잡한 연산을 거치기 때문에 결과값 도출까지의 과정을 명확히 설명하기 어렵습니다. 더군다나, 아직까지 이 과정을 입증하는 기술도 개발되지 않았습니다."

정 연구원은 "AI 시스템의 안전성과 윤리성을 담보할 수 없게 되면 향후 부정적 영향이 발생할 것이고, AI에 대한 불신이 높아져 기술 혁신의 속도가 늦춰질 수 있다"면서 "지금의 추세는 설명 가능한 알고리즘 추론 기술을 고안하고 최소한의 윤리 준칙을 정해 개발자와 이용자 모두 긍정적인 혜택을 누릴 수 있도록 준비하는 과정"이라고 설명했다.

국내에서도 이같은 추세에 맞춰 윤리 정책을 추진하고 있다는 것이다. 실제로 우리나라는 지난 2018년 정보문화포럼에서 '윤리헌장'과 '지능정보사회 윤리가이드라인'을 마련했다. 또 지난해는 KISDI와 방송통신위원회가 공동으로 AI 서비스 이용에서 지켜야 할 '이용자 중심의 지능정보사회를 위한 원칙'을 발표했다. 카카오와 삼성전자 및 통신 3사는 물론이고 구글코리아와 페이스북코리아 등 해외 ICT 기업이 참여했다. AI분야 관련 주체가 함께 공동 성명을 낸 것은 세계 최초다.

그는 다수의 법안 개정안이 발의됐음에도 입법화에 성공하지 못한 것을 못내 아쉬워하면서도  향후 입법화 가능성은 충분하다는 전망을 내놓았다. 국내에서도 지능정보사회에 대비한 입법 활동이 활발하게 진행되고, AI의 의사결정 과정을 알 수 있는 '설명가능 AI(Explainable AI)' 기술도 개발하고 있다는 것이다. 또 국내 '지능형 로봇 개발 및 보급 촉진법'에서 지능형 로봇의 윤리헌장 제정에 관한 규정을 명문화한 점도 긍정적으로 평가했다.

◇ AI 윤리 규범 정립이 우선…법제화는 유연적으로 정비해야

그는 "AI와 인간이 공공 이익에 부합하면서 공존할 수 있다는 사회적 합의가 전제된 후에 법제화를 시작하는 것이 바람직하다"는 입장을 견지했다.

연구보고서에는 법제 정비의 필요성을 강조했지만 AI는 현재 사회에 완벽하게 수용된 상황이 아니기 때문에 법적 규율의 범위를 어느 수준으로 설정할 것인지 명확하지 않다는 것이다.

이에 대해 그는 "AI가 기술적으로 도약하는 시점에서 법적 규율을 가하면 기업 활동을 제약해 기술 개발이 위축될 수 있다"면서 "입법으로 규율하는 것보다 윤리 규범을 정립하는 것이 먼저"라고 말했다.

하지만 그는 단순한 기본 윤리 원칙 수준에 머무르는 것은 경계했다. 실무 차원에서 구체화된 가이드라인을 마련하거나 안전을 위해 공공부문에서 공적 인증 체계ㆍ평가 지표를 마련하는 등 실용적인 접근이 필요하다는 주장이다.

그는 "실증 연구와 AI 역기능이 야기하는 사회적 문제 모니터링을 지속 수행해야 한다"며 "구체적인 법제화가 시작되면 다각적인 관점에서 유연한 법제 정비가 이뤄져야 한다"고 지적했다. 

AI 시대는 다양한 형태로 기술이 진화하기 때문에 급하게 한 방향의 법제로 정비하는 것은 적합하지 않고, 분야 및 서비스별로 적합한 방향을 검토해 유연한 체계가 될 수 있도록 법 제도를 정비해야 한다는 생각이다.

◇ 산업발전이냐 개인정보보호냐, 경계에 선 AI…균형 잡힌 생태계 구성해야

정원준 KISDI 전문연구원
정원준 KISDI 전문연구원

"AI 법제 정비에 있어 산업발전과 개인정보보호는 어느 하나도 포기할 수 없는 가치입니다. 양자가 상생할 수 있는 생태계를 만드는 것이 중요합니다."

개인정보보호에 대한 그의 생각은 단호했다. 아무리 유용한 혁신 기술일지라도 오ㆍ남용이 이루어지면 안된다는 것이다.

그는 균형을 맞추는 방법으로 선제적 규제가 필요한 영역과 윤리 규범으로 최소한의 원칙을 요구하는 영역으로 구분할 것을 주문했다.

자율주행차와 딥페이크 기술을 예로 들었다. 자율주행차는 다수 법률을 전반적으로 정비해야 하기 때문에 윤리 보다는 입법 차원에서 접근해야 하는 영역이지만, 딥페이크는 초상권 침해는 물론이고 피싱이나 성관계 영상 등 범죄행위에 악용될 소지가 있어 다르게 접근해야 한다는 얘기다.

"AI 기술은 사전에 두 영역으로 구분해 적절한 규제 프레임워크를 구축해야 합니다. 산업 관점에서는 혁신을 저해하지 않도록 투명하고 안전한 AI를 강조할 필요가 있습니다."

◇ 기술개발에 지속 관심 필요

"AI타임스만 읽어도 AI 관련 이슈를 놓칠 일은 없을 것 같습니다. AI 영역을 종합적으로 다뤄 줄 전문지가 있다는 사실은 연구자로서 두 팔 벌려 환영할 일입니다."

정 연구원은 AI 산업 발전을 위해서는 지속적인 관심이 필요하다고 주문했다. 역설적으로 국내에는 AI 분야 스타트업이 제대로 관심을 받지 못하고 있다는 이야기다. 그도 얼마전 미국 시장조사 기관에서 밝힌 AI 분야 100대 스타트업에 국내 기업은 하나도 끼지 못한 사실을 인식한 듯하다.

"국내에도 유망 스타트업이 많아요. 하지만 이들 가운데 정책을 만드는 과정에서 애로 및 건의사항을 내놓는 기업은 소수에 불과합니다. AI타임스가 우수한 기술력을 지닌 스타트업을 많이 발굴해 주면 AI산업 발전에 큰 도움이 될 것입니다." 

그는 AI타임스에도 과제를 남겼다. 앞으로 차근차근 해 나가야 할 일이다.