법무법인 태평양·한국데이터법정책학회 'AI 규제안 어디까지 왔나?' 웨비나 개최
“일반법 이외 방법 많다” 간접 규제책인 기존 법·AI 가이드라인 활용 가능
카카오엔터프라이즈 “편향적이지 않은 AI 기술 실현 가능할지 의문”

(왼쪽부터)한양대 법학전문대학원 윤혜선 교수, 카카오엔터프라이즈 고재희 이사, 한국데이터법정책학회 이성엽 학회장, 법무법인 태평양 이상직 변호사, 방통위 배춘환 과장, 개보위 김직동 과장(사진=박성은 기자)
(왼쪽부터)한양대 법학전문대학원 윤혜선 교수, 카카오엔터프라이즈 고재희 이사, 한국데이터법정책학회 이성엽 학회장, 법무법인 태평양 이상직 변호사, 방통위 배춘환 과장, 개보위 김직동 과장(사진=박성은 기자)

인공지능(AI) 기술에 대한 일반법이 국회에 다수 발의됐지만 통과는 장담할 수 없을 것으로 전망된다. 전문가들은 일반법을 마련하기보다 AI 개발 과정에 적용 가능한 기존 법과 가이드라인을 적극 활용할 것을 권장하는 입장이다.

법무법인 태평양과 한국데이터법정책학회는 20일 'AI 규제안 어디까지 왔나?' 웨비나를 열고 국내외 AI 관련 규제책에 대한 법조계, 산업계, 정부기관 입장을 공유했다.

이날 행사에는 과기정통부, 방송통신위, 개인정보위와 같은 정부기관 관계자들부터 법조계 전문가들, 카카오엔터프라이즈 관계자 등이 발제자와 토론자로 참석했다.

각 분야 전문가들은 AI 기술에 대한 규제가 필요한 것에 동의하지만 일반법보다 간접 규제가 가능한 기존 법과 자율규제책인 가이드라인을 적극 활용할 것을 권장했다.

한국행정연구원 방정미 박사는 “AI 일반법을 만드는 일은 아직은 시기가 아니라고 생각한다. 우리나라의 경우 현재 관련해서 3, 4개 정도 법안이 상정된 상태다. EU 사례를 살펴보면 2018년부터 법안 마련 작업을 단계적으로 진행해왔다”고 말했다.

그는 “AI 규제 실효성 확보수단이 오로지 일반법 입법으로만 확보되는 것은 아니라고 본다. 자율규제를 비롯한 정부의 다양한 정책수단을 활용할 수 있다. 사전배려 원칙에 기반한 일괄사전규제보다는 증거, 데이터, 비용편익분석 등 과학적 데이터 기반 규제가 필요하다고 생각한다”고 전했다.

한양대 법학전문대학원 윤혜선 교수도 EU의 인공지능법(AIA)에 대해 기존 맥락에서 접근할 것을 주장했다.

윤 교수는 “EU 법안에 대해 법 자체에만 집중하면 안 된다. 이전 과정에서 윤리 지침과 백서 등을 마련한 것을 고려해서 해석해야 한다. 윤리 지침을 통해 EU에서는 자율점검표 실효성을 확인했다. 이를 통해 입법 규제 틀을 마련할 수 있었던 것”이라고 설명했다.

AI 기술 특성상 하나의 일반법으로 인한 규제가 어려울 것이라는 의견도 나왔다. AI 기술은 분야별로 다른 특성을 지니며 빠르게 변화하기 때문.

개인정보위 신기술정보과 김직동 과장은 “하나의 규제책, 일반법이 적용 가능할지 의문이다. 영상, 음성 등 각 분야에서 AI 기술은 각기 다르다. 개별 파트나 기술별로 새로운 법을 만들어야 하는데 이를 위해서는 시간이 많이 소요될 것이고 기술 트렌드를 따라가기 어려울 것이다. 결국 가이드라인을 만들어 간접 규제를 하는 상황이 이어질 수 있겠다”고 말했다.

현재 AI 개발 과정에 개입 가능한 간접적인 규제법으로는 ▲신용정보의 이용 및 보호에 관한 법률 ▲개인정보보호법 ▲공정거래법 등이 있다.

법무법인 태평양 윤주호 변호사는 “신용정보법에서는 마이데이터 사업자의 행위 준칙을 제시한다. 특정 고객의 이익을 해하면서 자기 또는 제3자의 이익을 도모하는 행위를 금한다. 예를 들어 마이데이터를 이용한 AI 서비스 개발 과정에서 사용자 이익보다 기업의 광고수익을 위한 알고리즘을 사용할 경우 위법”이라고 설명했다.

간접 규제가 가능한 기존 법 이외 AI 가이드라인도 실효성이 있다는 주장이다. 윤 변호사는 “기업이 가이드라인을 지키면 실질적 위반에 해당하는 경우에도 최대한 노력했다는 설명 사유를 제시해 문제 해결에 도움이 될 수 있다. 디펜스 논리를 만들 수 있다는 정도 의미를 지닌다고 생각한다. 공공성 연대성 원칙은 민간기업에 요구하기에 무리가 있을 것 같다”고 말했다.

발표 중인 윤주호 변호사(오른쪽)와 방정미 박사(왼쪽)(사진=박성은 기자)
발표 중인 윤주호 변호사(오른쪽)와 방정미 박사(왼쪽)(사진=박성은 기자)

◆산업계, 편향성 개념 AI에 적용 가능할지 의문...데이터법도 아쉬워

일반법 이외 AI 규제책에서도 한계가 있다는 지적도 나왔다. 특히 산업계에서는 편향성과 데이터 관련 규제에 어려움을 느끼는 입장이다.

카카오엔터프라이즈 고재희 이사는 “편향성은 지극히 주관적 개념이라고 느껴진다. 이것이 컴퓨터학습에 적용될 수 있을까, 우리가 분명히 정의할 수 없는 개념을 컴퓨터가 소화 가능할지 의문이다. 편향성 여부는 결과를 통해 판단할 수 있기에 AI 개발을 하는 입장에서는 미리 알 수 없다. AI에 목표를 주입하기는 쉽지만 상식 주입은 어렵다”고 설명했다.

이상직 법무법인 태평양 변호사도 “편향성에 대해 다시 생각해볼 필요가 있다. 기업 서비스는 필연적으로 타겟 고객을 지닌다. 30대 남성이 타겟이라면 이외 대상은 소외될 수밖에 없다. 이는 건전한 타겟팅이며 합리적 차별이다. 문제되는 차별은 현행법 위반 사항들”이라고 강조했다.

AI 사업을 하는 기업 입장에서는 데이터 관련 규제에도 아쉬움을 느끼는 상황이다. 초기 AI 제품을 개발하는 일 이외 다양한 상황에서 개인정보 활용이 어디까지 가능한지 정해지지 않았다는 것.

고재희 이사는 “기존 개인정보를 추가 연구에 활용 가능한지, 확대 적용 가능한지 등에 대해서는 결론을 내리기 어렵다. AI 산업이 발전하면서 이러한 그레이 영역은 점차 늘어날 수 있는데 사업자 입장에서는 정부 해석이 나와야지만 판단 가능한 부분”이라고 지적했다.
 

◆법 내 AI 기술 정의와 국가의 AI 규제 이유 명확히 해야

AI 기술 정의와 AI 규제가 필요한 이유에 대한 가치관이 명확하지 않은 것도 현 AI 규제책의 한계점으로 언급됐다.

윤혜선 교수는 “규베 범위 확정을 위해 관련법에서 AI 정의를 확립해야 한다. EU의 경우 ‘AI 시스템’으로 정의한다. AI 규제에 데이터 거버넌스가 들어가 있다. 이를 포함하느냐 그렇지 않느냐에 따라 AI 정의가 달라진다. 미국의 경우 시스템이 아닌 알고리즘 혹은 특정 기술로 AI를 지칭하고 있다”고 말했다.

AI 기술을 규제하는 이유에 대해 각 국가의 철학이 필요하다는 주장도 나왔다. 윤 교수는 “리스크 관리 방식으로 AI 규제를 하더라도 어떤 방식으로 관리할 것인지에 대해서는 각국에 따라 달라질 수 있다”고 설명했다.

이어 “EU의 경우 핵심 가치로 여기는 기본권과 안전에 위협이 되는 것을 기준으로 정도에 따라 리스크를 나눠 규제한다. 미국은 소비자 보호와 안전을 목적으로 규제 법안을 만든다. 우리는 어떤 국가관을 가지고 규제할 것인지 합의가 필요하다”고 전했다.

 

AI타임스 박성은 기자 sage@aitimes.com

[관련기사]"개인정보통제권으로 데이터경제 활성화…데이터 분류도 더 세분화해야"

[관련기사]EU 집행위 AI 정책 초안을 둘러싼 AI업계 논란, "혁신을 위협하는가, 아니면 허점투성이 법안인가"

키워드 관련기사
  • [AI 법제도 따져묻기] ② "미래 완전자율주행차 법, 택시기사도 납득시켜야"
  • [AI 법제도 따져묻기] ①당뇨 치료에 혈당 측정 앱 쓰면 불법이라고?
  • 호주 법원, AI를 발명가로 인정한 첫 특허 판례 나와...찬반논쟁 재점화되나