인간 뇌의 구조를 꼭 닮은 인공신경(ANN)망이 그린 이미지는 어떤 모습일까. 인간 신경망을 흉내낸 머신러닝으로 치유와 공감을 그려낼 수 있을까. 치유라는 데이터를 학습한 인공신경망이 미디어 아트로 구현돼 신선한 작품으로 등장했다.
광주문화재단은 12월 초 미디어338에서 미디어아트 창의랩에 참여한 AI 활용 콘텐츠팀 ‘Nabi Lab’의 ‘AI Brain Room, 인터랙티브 콘텐츠팀 ‘DATASTREAM+’의 'DATASTREAM+' 등 연구·개발 콘텐츠 작품을 발표했다. 미디어아트 창의랩은 광주만의 콘텐츠를 제작하는 프로그램으로 올해로 3년째 진행 중이다.
Nabi Lab팀은 인공지능을 활용한 콘텐츠로 인공신경망 알고리즘을 시각적으로 체험할 수 있는 작품을 선보였다. 20년간 미디어아트를 연구해온 나비랩(Nabi Lab) 대표 한상욱이 총괄하고 김성은 개발자, 손한묵 음악가, 최종원 데이터전문가가 연구개발에 참여했다.
뇌 속에서 발생하는 지적 활동을 인공지능과 딥러닝을 통해 빛으로 구현했다. 인간의 좌뇌와 우뇌를 큰 두개의 방으로 표현했고, 분석, 분류, 추론, 예측, 회귀 등의 과정을 반복하며 스스로 학습한 결과를 도출해 그려냈다. 좌뇌는 40만장이 넘는 이미지 데이터를 학습해 뇌의 실시간 활동을 보여준다. 우뇌는 좌뇌에서 연산된 결과를 변환 가공해 인간의 시각적 창의성을 그렸다.
데이터는 치유라는 대주제 속에 감정, 인식, 분석 3가지 키워드로 분류했다. 작품은 사람의 뇌 속 신경망 구조를 본따서 만든 인공신경망의 구조와 흐름을 프로젝션을 통해 시각적으로 볼 수 있다. 터치스크린을 통해 체험해 볼 수 있는 작품으로 관람객과 참여를 통해 완성된다.
두 번째 결과물인 DATASTREAM+의 인터랙티브 콘텐츠는 가상현실(VR)플랫폼을 활용해 청중과 소통할 수 있는 콘텐츠이다. VR플랫폼, 사운드, 사운드, 그래픽 디자인, 데이터 시각화 및 인터랙티브 알고리즘 등 모든 요소를 자체 연구·개발했다. 미디어 아티스트 신믿음이 총괄을 맡고, 이머시브 그래픽 디자인에 김성필, 인터렉티브 디자인에 박문석이 참여했다.
이들은 압도적인 데이터 스트림 속에 관객을 위치시켜 데이터의 흐름을 온 몸으로 느낄 수 있도록 했다. VR은 컨트롤러 없이 제스처와 손짓만으로 파티클 영상을 제어할 수 있다.
관객은 VR를 통해 데이터와 실시간 상호작용하며 가상공간에서 스스로 데이터 생산자와 소비자를 자각하는 경험을 하게 된다. 착용자가 가상공간에 만들어 낸 영상데이터는 외부 관람객이 있는 실제 물리적 공간에도 영향을 준다.
한편, 미디어아트 창의랩 결과 발표회 및 콘텐츠 영상은 12월 중 광주문화재단 홈페이지 또는 광주문화재단TV 유튜브 채널에서 볼 수 있다.
AI타임스 구아현 기자 ahyeon@aitimes.com
