미 캘리포니아대학, 뇌파를 텍스트로 변환하는 AI 시스템 개발
소리 내어 말할 경우에만 제한적 작동 등 한계도 지적

(사진=Shutterstock).
(사진=Shutterstock).

생각을 읽어주는 독심술 기계가 나올 수 있을까. 이미 그리 허황된 이야기가 아니게 됐다. 미국 캘리포니아대학교 연구진이 뇌파를 텍스트로 변환해주는 인공지능(AI) 시스템을 개발했다. 말을 할 수 없거나 글을 쓸 줄 모르는 사람도 생각만으로 소통할 수 있는 길이 열릴 전망이다. 

영국 BBC와 네덜란드 TNW 등 외신은 미국 캘리포니아대학교 샌프란시스코캠퍼스(UCSF) 연구진이 말하거나 감정을 느낄 때 생겨나는 두뇌활동에 의한 전류, 즉, 뇌파를 읽어내는 AI 시스템을 개발했다고 30일(현지시간) 보도했다.

연구결과는 영국 신경과학전문지인 네이처 뉴로사이언스에 게재했다.

연구진은 4명의 참가자를 대상으로 간질발작을 모니터링하는 뇌 임플란트(뇌에 전극을 이식하는 기술)를 이용해 사람이 말하는 동안 뉴런의 신경 데이터를 추적했다. 뉴런은 신경계를 이루는 기본 세포 단위다. 이후 기계학습 알고리즘으로 뇌 활동 데이터를 일련의 수치로 변환하고 단어로 바꾸는 과정을 반복했다.

연구진은 참가자에게 '티나 터너는 팝 가수다', '오아시스는 신기루였다' 등 간단한 문장 50세트를 소리내 읽도록 한 후 이들이 말할 때 나오는 뇌 활동 신호를 컴퓨터에 입력, 단어 형식으로 판독해 냈다. 말하는 사람의 뇌파를 해석하는 것이다. 

연구진은 알고리즘을 훈련시켜 실시간으로 뇌의 패턴을 문장으로 전송할 수 있도록 했다. 한 참가자는 단어 오류율을 3% 정도까지 낮추는 데 성공했다. 개인마다 편차는 있으나 실제 약 5%의 오류율을 보인 전문기록사보다 정확도가 높게 나타난 셈이다.

상용화는 아직 이르다. 연구진은 이 시스템이 종종 오류를 보이고 있으며, 현재로서는 사람이 소리 내어 말할 경우에만 작동하는 데다 해석되는 음성이 30~50개의 문장으로 제한된다는 한계를 인정했다.

하지만 전문가들은 향후 기술을 개선해 의식은 있지만 전신마비로 인해 외부자극에 반응하지 못하는 '락트인 증후군' 환자처럼 의사소통에 어려움을 겪는 사람의 의사를 전달하는 데 기여할 것으로 기대했다.

한편, 영국 셰필드대학교의 뇌-기계 인터페이스(BMI) 분야 전문가는 "기계가 마음을 읽어내는 현실이 당장 눈앞의 일은 아니더라도 이에 대한 윤리적 문제를 지금부터 공론화할 필요가 있다"고 지적했다.

키워드 관련기사
  • “눈으로 말해요” AI로 언어장애인 의사소통 돕는 구글 앱 나와
  • ‘마음 읽어내는 장치’ 페이스북 손에서 나올까