동물과 소통하기 위해 인공지능(AI) 기술이 속속 도입되는 가운데, 이제는 동물의 표정을 분석하는 비전 AI 기술이 주류로 떠올랐다는 소식이다. 이 기술의 개발에 가장 큰 장애물은 AI의 성능이 아니라 데이터 구축이었는데, 수년간의 연구가 이뤄지며 상용화에 가까워졌다는 말이다. 동물 얼굴 분석 AI 앱이 출시될 날도 머지않은 것으로 전해졌다.
사이언스는 13일(현지시간) 전 세계의 과학자들이 양과 말, 개와 고양이에 이르기까지 동물의 표정을 해독하기 위해 AI로 눈을 돌리고 있다고 보도했다. 이미 일부에서는 인간 전문가보다 고통을 파악하는 데 더 빠르고 정확한 알고리즘을 개발했다고 전했다.
이에 따르면 브라질 상파울루대학교 연구진은 수술 전과 후의 말 얼굴 사진과 진통제 투여 전후의 사진 3000여장으로 AI를 학습, 말의 눈과 귀, 입의 차이점으로 통증 여부를 판단하는 모델을 구축했다. 그 결과, AI는 88%의 정확도를 보였다고 전했다.
영국 스마트 농장에서 시범적으로 시행 중인 인텔리피그(Intellipig) 시스템도 AI를 사용한다. AI는 97%의 정확도 로 개별 돼지를 인식, 인간 전문가를 능가한다. 또 얼굴 특징만으로 스트레스를 파악하는 데 능숙하다는 말이다.
특히 올해 초에는 이스라엘 하이파대학교 연구진인 AI가 고도로 숙련된 수의사와 행동 전문가보다 양의 고통을 감지하는 데 지속적으로 더 뛰어나다는 결과를 발표했다. AI는 양이 고통을 느낀다는 것을 82%에서 맞춰, 인간 전문가 4명이 기록한 70%를 능가했다.
이런 기술은 동물 얼굴의 눈과 코, 입의 위치가 변하는 정도에 따라 표정의 내용을 식별하는 방식으로, 2016년 케임브리지대학교 연구진이 선구적인 연구 결과를 발표한 바 있다.
하지만 이 기술의 빠른 진행을 막은 것은 AI가 아니라, 데이터라는 지적이다.
즉, 동물의 상태를 알려주는 사진 데이터는 거의 없다는 것이다. 따라서 연구원들은 수천시간 동안 마굿간 앞에서 시간을 보내는 일이 허다했다. 또 동물의 표정을 라벨링하는 작업도 꽤 시간이 걸린다. 인간 라벨러가 동물 얼굴 근육을 식별하고 단일 이미지에서 위치를 코딩하는 데 평균 100초가 걸리고, 30초 분량의 비디오에는 2~3시간이 걸리는 것으로 알려졌다.
특히 개는 품종에 따라 얼굴 모양이 매우 다양하기 때문에 AI에게는 특히 어려운 과제로 꼽힌다. 또 동물 표정으로 식별하기 쉬운 것은 통증 정도다.
이 때문에 지금까지 등장한 AI 동물 연구는 음성을 활용한 것이 많았다.
하지만 수년간의 노력과 AI 시스템의 발전으로 이제는 인간이 감지할 수 없는 미묘한 표정 변화로 고통을 감지할 수 있다는 연구 결과가 속속 등장하고 있다. 하이파대의 안나 자민스키 교수팀은 2023년 AI가 고양이가 고통을 받고 있는지 여부를 판단하는 데 77%의 정확도를 보였다.
이를 기반으로 고양이의 얼굴을 30초 동안 스캔하고 "입 주변에 상당한 긴장이 감지됨. 통증 수준은 중간"과 같은 결과를 출력할 수 있는 AI 앱을 출시할 예정이다.
이 기술을 개발하는 것은 동물 복지를 위한 것이라고 밝혔다. 하마스와의 전쟁 중 연구를 진행해온 자민스키 교수는 "그들의 삶을 더 좋게 만들고자 하는 희망이 정말 어려운 시기에 우리가 살아남는 데 도움이 된다"라고 말했다.
물론, 표정으로 동물의 상태를 전부 파악할 수 있는 것은 아니다. 울음소리나 몸짓이 유용한 경우도 많다. 또 AI가 잘못된 패턴을 찾아낼 수 있다.
이런 문제에도 불구하고 일부 연구자들은 스트레스와 고통보다 더 복잡한 기쁨이나 분노, 슬픔과 같은 감정을 읽을 수 있는 시스템 개발을 위해 노력하고 있다.
자만스키 교수는 "언젠가 인간같은 감정 상태를 파악하는 '개 얼굴 판독기'를 개발하는 것이 꿈"이라며 "지금은 불가능하지만, 이런 속도라면 1년 안에 가능할 것"이라고 말했다.
임대준 기자 ydj@aitimes.com
