존 로버츠 미국 연방대법원장이 인공지능(AI) 발전으로 인한 사법 체계의 변화에 환영과 우려를 동시에 표시하며, AI를 사용할 때 “주의와 겸손이 필요하다”고 강조했다. AI가 대중의 사법 접근성을 높이고 시간과 비용을 단축시켜 주는 장점이 있지만, 콘텐츠 진위 논란과 개인정보 미보호 등의 우려가 크고 인간만이 할 수 있는 역할도 분명히 존재한다고 밝혔다.
로이터는 31일(현지시간) 로버츠 대법원장이 ‘2023년 연례 연말 보고서’를 통해 AI가 판사와 변호사의 업무수행 방식에 변화를 가져올 것으로 전망한 내용을 소개했다.
이에 띠르면 로버츠 대법원장은 AI 때문에 판사가 쓸모 없어질 수 있다는 전망에 대해 “인간 판사가 한동안 존재할 것이라고 예상한다”라며 “다만 판사의 업무, 특히 재판 수준에서, AI에 의해 상당히 영향을 받을 것이라고 확신한다”라고 전했다.
또 “AI가 가난한 소송 당사자의 사법 접근성을 높이고, 법률 연구에 혁명을 일으키는 것은 물론 법원이 사건을 더 빠르고 저렴하게 해결하도록 지원할 수 있는 잠재력이 있다”고 평가했다.
동시에 혼란과 부작용도 생길 수 있다고 지적했다. 그는 "기밀 정보를 AI에 입력하면, 나중에 법적 권리를 주장하는 데 악영향을 미칠 수 있다"라고 우려했다. 피의자에게는 묵비권이 있는데, 숨기고 싶은 정보를 AI에 입력했다가는 유출로 인해 법적 분쟁에서 불리해질 수 있다는 의미로 해석된다.
그러면서 그는 AI가 거짓 정보를 사실인 척 지어내는 '환각'으로 가짜 판례가 생성될 수 있다고도 짚었다. 실제로 도널드 트럼프 전 대통령의 최측근이었다가 각종 소송 등으로 결별한 마이클 코언은 최근 구글의 AI 챗봇 ‘바드’로 만든 판례 인용문을 법원에 제출했다가 가짜 판례임이 발각되기도 했다. 이처럼 일부 변호사가 AI를 활용해 존재하지 않는 판례를 인용하는 사례가 속출하고 있다.
이로 인해 뉴올리언스의 연방 항소 법원은 지난달 오픈AI의 챗GPT와 같은 생성 AI 도구의 사용을 규제하는 규칙을 발표하며 주목받았다. 이 규칙에 따르면 변호사는 법률 문건 초안을 작성하기 위해 AI에 의존하지 않았고, AI가 생성한 텍스트의 정확성을 인간이 검토했다는 점을 증명해야 한다.
더불어 로버츠 대법원장은 “법적 결정은 종종 인간의 판단을 적용해야 하는 ‘회색 영역’을 포함한다”라며 판사만이 피고인 발언의 진실성을 평가할 수 있는 영역이 있다고 했다. 피고인의 떨리는 손과 목소리, 억양의 변화, 땀방울, 순간의 망설임, 눈맞춤 등의 미묘한 차이는 인간 판사만이 포착할 수 있다는 주장이다. AI 사용 증가로 사생활 침해가 늘어나고 법을 비인간화할 수 있다는 위험도 존재한다고 우려했다.
이에 대해 로이터는 "미국 대법원장의 이러한 논평은 법률에 대한 AI 영향이 증가한다는 점을 상기시킨 것"이라고 평했다.
박찬 기자 cpark@aitimes.com
