최근 문제가 된 대학교의 인공지능(AI) 커닝 사태의 재발을 막기 위해서 AI의 사용을 금지하는 것은 현실적으로 불가능하며 바람직하지도 않다는 지적이 나왔다. 대신, AI 시대에는 평가 방식을 개선하는 쪽이 더 현실적이라는 주장이다.
AI 전문 무하유(대표 신동호)는 이번 문제를 ‘AI 사용 여부'에 맞추는 것보다, ‘어떻게 사용했는가 그리고 스스로 사고했는가’에 초점을 맞춰야 한다고 11일 밝혔다.
2011년 설립한 무하유는 자연어이해(NLU) 기술 기반 표절검사 서비스 '카피킬러' 등 수년째 AI 검사와 탐지 솔루션을 서비스 중이다. 전국적으로 3400개 이상의 기관이 솔루션을 사용 중이며, 여기에는 국내 대학 중 96%가 포함된다. 이처럼 국내에서는 AI 부정행위에 대해 가장 노하우가 많은 곳으로 꼽힌다.
무하유는 이번 문제의 재발을 막으려면 접근 방식을 바꿔야 한다고 주장했다. 즉, "단순 정답형 평가보다 ‘사고 과정을 설명하게 하는 구술형-발표형 평가’가 점차 확대돼야 한다"라는 것이다. AI가 전 분야에 도입되는 과정에서 무작정 금지를 논하는 것은 해결책으로 볼 수 없다는 것이다.
특히, 이번 사태가 객관식 정답형 평가를 진행해서 일어났다는 점은 처음부터 'AI의 사각지대'에 놓여 있었다는 것을 의미한다고 설명했다.
따라서, AI 부정을 방지하려면 교육 단계에 맞는 평가 방식이 필요하다고 전했다.
즉, 대학에서는 지식 재생보다는 창의적 문제 해결과 비판적 사고가 중요하므로, AI 인터뷰 및 구술 평가 형태의 ‘사고력 중심 평가’로 전환해야 한다고 주장했다. 구술 평가를 진행하면 진정한 학습과 사고력을 검증할 수 있다는 설명이다.
이어 고등학교에서는 자기주도 학습과 탐구 기반 과제가 중심이 돼야 하므로, AI 활용을 허용하되 사용 근거를 명시하게 하는 ‘출처 기반 평가’가 적합하다고 소개했다.
초등학교와 중학교 교육은 학습 내용을 기억하고 이해하는 기초 학습 단계이므로, 서면 평가와 프로젝트형 평가를 병행할 필요가 있다는 내용이다.
더불어, 교육 현장에서는 ▲투명한 AI 사용 정책 ▲AI 활용 윤리 교육 ▲AI 검증 프로세스 등을 도입해야 한다고 밝혔다.
투명한 사용 정책이란 AI 활용을 금지하기보다, ‘AI의 도움을 받은 부분’과 ‘학생의 고유한 기여’를 명시하게 하는 출처 기반 가이드라인을 마련해야 한다는 의미다.
AI 활용 윤리 교육은 기술 사용의 책임과 윤리적 경계(저작권, 개인정보, 조작 문제 등)를 체계적으로 가르쳐야 한다는 내용이다.
마지막으로 AI 검증 프로세스는 무하유의 'GPT 킬러'와 같은 서비스를 활용해, AI 작성 여부를 검증하고 신뢰 가능한 평가 환경을 조성할 필요가 있다는 것이다.
무하유 관계자는 "결국 AI가 대신할 수 있는 시험은 더 이상 교육적 의미가 없다"라고 말했다.
또 "사람만이 보여줄 수 있는 사고 및 표현, 판단을 평가하는 구술형-면접형 평가로 전환하는 것이 시대적 과제"라고 강조했다.
장세민 기자 semim99@aitimes.com
