인공지능(AI)를 이용해 개의 뇌파에서 시각적 이미지를 해독해 마음을 읽는 기술이 나왔다.
사이언스데일리(ScienceDaily)는 16일(현지시간) 에모리 대학 연구팀이 AI 기술을 활용해 시각적 자극을 받은 개의 뇌를 fMRI(기능적 자기공명영상) 스캔한 뇌파 해독 기술을 개발했다고 보도했다.
연구팀은 30분 단위의 3개 세션, 총 90분 동안 비디오를 시청하는 동안 움직이지 않고 깨어 있는 2마리의 개에 대한 fMRI 신경 데이터를 기록했다. 그런 다음 AI 알고리즘에 입력해 신경 데이터의 패턴 정보를 기반으로 개의 뇌 활동을 모니터링하고 보고 있는 것을 제한적으로 재구성 할 수 있었다.
연구팀은 개가 비디오를 시청할 때 fMRI는 시력을 담당하는 뇌 영역에서 뉴런의 활동을 스캔했다. 그런 다음 컴퓨터의 AI 알고리즘에 입력해 fMRI 스캔 정보를 기반으로 정확한 이미지를 구축할 수 있었다.
연구팀은 개의 관점에서 사람의 허리 보다 낮은 위치에서 촬영한 개의 삶과 관련된 장면이 담긴 30분짜리 비디오를 만들었다. 비디오에는 사람이 쓰다듬어 주거나 간식을 주는 모습은 비롯해 반려견이 코를 킁킁거리거나, 놀거나, 먹거나, 목줄을 매고 걷는 모습, 도로를 지나가는 자동차, 자전거 또는 스쿠터, 집에서 산책하는 고양이, 길을 건너는 사슴, 앉아있는 사람들, 포옹하거나 키스하는 사람들, 고무 뼈나 공을 던져주는 사람들, 그리고 먹는 사람들의 모습이 포함됐다.
또한 비디오 데이터를 객체 기반 분류기(예: 개, 자동차, 인간, 고양이)와 행동 기반 분류기(예: 킁킁거리기, 놀기 또는 먹기) 등으로 타임스탬프 분할했다.
연구팀은 2명의 인간 피험자에게도 동일하게 총 90분 동안 3번의 세션의 비디오를 시청하게 하고 fMRI 신경 데이터를 스캔했다.
개와 인간 피험자의 뇌 데이터는 타임스탬프를 사용해 비디오 분류기에 매핑될 수 있다. 아이비스(Ivis)로 알려진 신경망 모델을 이용헤 뇌 데이터 콘텐츠를 분류하도록 학습했다.
2명의 인간 피험자에 대한 결과는 신경망을 사용해 개발한 모델이 객체 기반 및 행동 기반 분류기 모두에 뇌 데이터를 매핑하는 데 99% 정확도를 보였다는 것을 발견했다.
2마리의 개에 대해 결과는 모델이 객체 분류기에 대해 작동하지 않았지만 행동 분류를 해독할 때는 75%에서 88%의 정확도를 보였다.
이 결과는 인간과 개의 뇌가 작동하는 방식에 큰 차이가 있음을 시사한다고 연구진은 지적했다.
에모리 대학의 심리학과교수인 그레고리 번스는 “인간은 매우 객체 지향적이다. 왜냐하면 우리는 물건에 이름을 붙이는 데 특별한 집착을 가지고 있기 때문이다. 하지만 개는 무엇을 보고 있는지보다는 행동 자체에 더 관심을 갖는 것으로 보인다"고 설명했다.
실제로 개와 인간은 시각 시스템에서도 큰 차이가 있다. 개는 파란색과 노란색 음영으로만 볼 수 있지만 움직임을 감지하도록 설계된 시각 수용체의 밀도가 인간보다 약간 더 높다.
번스 교수는 "동물들은 먹히는 것을 피하거나 사냥하고 싶은 동물을 감시하기 위해 주변에서 일어나는 일에 매우 관심을 가져야 한다"며 "개에게는 행동과 움직임이 가장 중요하다"고 결론내렸다.
또 "개들의 두뇌가 무엇보다도 행동에 고도로 적응할 것이라는 것이 완벽하게 이해가 된다"라고 덧붙였다.
박찬 위원 cpark@aitimes.com
[관련기사]텔레파시 가능하게 해 줄 AI 기술 나온다
[관련기사]생각을 사진으로 바꿔주는 꿈의 AI 나왔다
