(사진=셔터스톡)
(사진=셔터스톡)

'챗GPT'가 암 치료에 대한 전문적인 지식을 술술 대답해 주지만, 그중에는 '환각'이 다수 포함된 것으로 알려졌다. 이를 두고 연구진은 "의대생 수준은 되지만, 레지던트에는 못 미친다"고 평했다.

블룸버그는 24일(현지시간) 미국 보스턴의 브리검 여성병원 연구진이 챗GPT로 생성한 암 치료 계획을 분석한 결과 부정확한 대답과 올바른 권장 사항이 뒤섞인 결과를 얻었다고 보도했다.

이에 따르면 챗GPT는 모든 답변에 미국 국립종합암네트워크(NCCN)의 지침에 따른 권장 사항을 하나 이상 포함했지만, 3분 1 가량은 엉뚱한 대답을 내놓았다.  

대니얼 비터만 종양학자 겸 논문 공동 저자는 "어떤 것이 잘못된 추천인지는 전문가도 판별하기 어렵다"며 "이는 거짓말이라도 그럴듯하게 답하는 인공지능(AI)의 특징에 따른 것으로, 잠재적으로 위험성을 내포하고 있다"고 말했다.

오픈AI도 챗GPT에 대해서는 "신뢰할 수 없고 정보를 조작할 수 있으며 특히 '고위험 상황'의 경우 각별한 주의가 필요하다"고 강조하고 있다.

연구진은 이런 문제로 챗GPT 같은 생성 AI가 의료 현장에서 도움이 되기까지는 수년이 더 걸릴 것이라고 지적했다. 

그러나 비터만은 "거의 모든 대답에 권장 사항이 포함돼 있다는 사실은 인상적"이라고 밝혔다. "챗GPT의 광범위한 지식 기반을 감안하면 의과대학에 진학한 것과 거의 비슷하다"며 "그러나 의대를 졸업한 뒤 받는 레지던트 과정은 아직 거치지 않은 상태"라고 정리했다.

이 논문은 24일자 '미국 의사협회 종양학(JAMA Oncology)' 저널에 게재됐다.

임대준 기자 ydj@aitimes.com

저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지