하정우 네이버 AI연구소장
“기업 입장에서 고위험 인공지능(AI) 의무사항 법안은 애매모호하다. 법안이 구체적이면 상품을 만들 때 미리 대비할 텐데 그럴 수 없다. 해당 법안을 기업이 명확하게 이해할 수 있는 형태로 만들어줘야 한다.”
박상철 서울대 교수
“모범답안 같아 보이는 EU AI 법안은 진정한 리스크 기반 규제도 아니고, AI 법안도 아니다. 국내 지능정보법이 더 빼어나다. 관련 컨트롤타워만 있으면 AI 관련 부처에 효율적으로 적용할 수 있다. 이를 과기정통부가 했으면 한다.”
인공지능(AI) 위험성 판단과 이에 따른 법적 과제 중요성이 커진 가운데 관련 기업인과 전문가는 구체적인 법안과 이를 관리할 명확한 컨트롤타워가 필요하다고 주장했다. AI 기업인들은 AI 위험성을 제어할 수 있게끔 기업 윤리에 기반을 둔 구체적인 관련 법안 제정이 절실하다고 입을 모았다. 인공지능 법 전문가들은 AI 윤리와 관련해 가장 시급한 과제로 향후 AI 법안의 기준이 될 '유럽연합(EU) 법안 신속 보완'을 주문했다.
과학기술정보통신부(장관 임혜숙)와 한국지능정보사회진흥원이 '인공지능의 위험성 판단과 법적 과제'를 주제로 서울 한국프레스센터 국제회의장에서 26일 세미나를 열었다. 이번 행사는 제4차 인공지능 법·제도 공개 세미나로 오병철 연세대 교수(좌장)를 비롯해 이근우 법무법인 화우 변호사, 김병필 KAIST 교수, 박성철 서울대 교수, 하정우 네이버 연구소장, 남운성 씨유박스 대표가 자리했다.
기업 입장에서 고위험 AI 의무사항 법안은 애매모호...구체성 필요
토론에 앞서 오병철 연세대 교수는 법제정비단이 제시한 고위험 인공지능이 갖출 적절한 의무사항을 설명했다. ▲시스템 관리 ▲추가적인 법적 의무 ▲소비자 보호로 총 세가지다.
시스템 관리는 ‘위험·데이터 관리 시스템 운영 의무’, ‘기록 의무’, ‘직원 교육·윤리적 행동 의무’가 포함된다. 추가적 법적 의무에는 ‘인허가’, ‘적합성 평가’, ‘사회적 영향 평가’가 있다. 소비자 보호에는 사전 고지 의무, 설명 제공 의무, 이의제기·분쟁조정 창구 마련이 있다.
하정우 네이버 AI연구소장은 세 가지 법적 의무사항은 애매모호하다며 기업 입장에서는 좀 더 구체적일 필요가 있다고 강조했다. 그는 “국내에는 AI 관련 스타트업이 굉장히 많다”며 “해당 기업이 시스템 관리 의무를 다 커버할 수 있을지” 물음표를 던졌다. "과연 해당 법이 있어도 잘 실현될지 미지수다”고 지적했다.
하 소장은 "앞으로 어떤 AI 분야가 더 발전할지 아무도 모른다”며 “인허가 보다는 AI 발전을 지켜보면서 ‘시행착오법(trial-error)’ 방식에 집중하는 게 올바르다”고도 제안했다. 그는 최근 딥러닝 개발도 시행착오법을 통해 개선하고 있다고 설명했다.
하 소장은 "적합성·사회적 영향 평가 면에서는 기술을 직접 적용하기 전까지는 알기 어렵다"고 말했다. "오히려 베타 테스트로 적합성을 예측할 수 있는 제도적 지원이 필요하다"고 강조했다. 또 "고위험 기술이어도 진행하는 건 그만큼 이익이 있기 때문이다”며 “테스트할 수 있는 기회가 없으면 기술을 적합한 방향으로 개선할 수 있는 확률은 거의 없다”고 지적했다.
하정우 소장은 그 외에 소비자 보호 측면에서 "AI 모델 자체를 설명하는 것보다는 모델이 가지고 있는 기능을 하나하나 설명하는 게 더 적합해 보인다"고도 주장했다. 하나로 뭉뚱그리는 설명보다는 기능에 따라 더 구체적인 설명 제공 의무가 필요하다는 말이다.
EU가 만든 AI 위험성 판단 기준 법안...국내법이 더 빼어나
박상철 서울대 교수는 “EU AI 법안에 있는 가장 큰 문제점은 저인망 규제다”며 “모든 의무사항을 다 지켜야 한다”고 지적했다. AI는 안전에 대한 위험, 공정에 대한 위험 등 다양한 위험성이 있다. EU 법안에 따르면, 모든 AI 기술은 공정성, 투명성, 정확성, 안전성을 천편일률적으로 지켜야 한다는 말이다.
박상철 교수는 “안전 위험성이 큰 기술은 안전 규제를 지키고, 차별 위험이 큰 기술은 투명성을 지키면 된다”며 “이것이 바로 고위험 인공지능 규제다”고 강조했다. 박 교수는 “해당 AI 법안은 진정한 리스크 기반 규제도 아니고 AI 법안도 아니다”고 꼬집었다.
그는 기후 변화, 원자력 같은 위험이 한 번 발생했을 때 재앙이 크게 생기는 부분과 아닌 것도 구분해야 한다고 했다. "환경, 재난 관련한 것에 대해서는 비용과 편익을 비교해서 할 일이 아니다"며 "철저한 법망을 만들어야 한다"고 설명했다.
박상철 교수는 "그 외의 것들은 비용과 편익을 분석해서 법안을 만들어야 한다"고 강조했다. EU가 명확한 근거와 데이터 없이 모든 걸 한 법망에 묶어 문제가 된다는 말이다. 박 교수는 "이는 가장 최악의 형태다"고도 말했다.
그는 “국내 지능정보화법이 해외 사례보다 더 뛰어난 정책이다”고 강조했다. “민관 협력을 촉진하고 국가가 큰 비전을 제시하도록 돕는다”며 “탄력성 있을 뿐만 아니라 지능과 규제가 조화롭다”고 말했다. “AI 기술을 모든 법안을 한 번에 지키도록 규제하는 방식보다 우월하다”고 말했다.
박 교수는 이에 대해 과학기술정보통신부가 컨트롤 타워가 돼야 한다고도 주장했다. “과기정통부가 컨트롤타워로서 해당 부처에 맞는 법안을 준비해 제공하면 보다 더 큰 효과가 일어날 것”이라고 당부했다.
토론에 앞서 이근우 법무법인 화우 변호사는 EU가 만든 AI 위험성 판단 법적 기준에 대해 설명했다. ▲사용 목적 ▲위해성 강도·침해 규모 ▲의존성 ▲공급자-사용자 간 불균형에 의한 취약성 ▲피해 회복가능성 ▲리스크 관련 법적 보상 유무 등이다. 해당 법안은 EU가 AI 위험 수준에 기반한 규율 방식 목표로 'EU AI 법안' 으로 지난 4월 발표했다.
AI타임스 김미정 기자 kimj7521@aitimes.com
