인공지능(AI) 알고리즘이 우리도 깨닫지 못하는 사이에 개인 정체성을 바꿀 수 있으며, 정체성의 '석회화 효과(calcifying effect)'를 가속할 수 있다는 주장이 나왔다. 알고리즘 추천은 단순한 취향이나 편의 문제를 넘어, 개인의 의지를 빼앗고 인간의 특성을 희석하는 철학적이고 도덕적인 문제를 발생시킬 수 있다는 지적이다.
뮤리엘 로이엔버거 취리히대학교 기술 및 AI 윤리학자는 27일(현지시간) 라이브 사이언스 기고문을 통해 'AI는 '독립적인 자기 창조에 필요한 기술을 방해할 수 있다'라는 제목의 글을 게재했다. 그는 생명윤리학자이자 디지털 및 AI 윤리, 정체성 및 진정성, 내러티브 등을 연구하고 있다.
이번 글은 AI 기술 발전에 따라 인간의 정체성에 문제가 뒤따른다는 내용이다. 즉, 우리는 이를 '기술의 편리'로 간주하지만, 이면에는 AI가 인간을 인간답게 만드는 것을 방해하는 근본적인 문제가 숨겨져 있다는 것이다.
우선 로이엔버그는 이미 휴대폰이 우리에 대해 많은 것을 알고 있다고 전했다. 누구와 대화하고 어떻게 시간을 보내며 어디에 가고 무엇을 좋아하는지에 대한 상세한 정보를 가지고 있다는 것이다. AI를 활용하면 이런 부분이 더 디지털화되고 AI가 나보다 자신을 더 잘 알 수 있게 된다는 것은 놀라운 일이 아니라고 덧붙였다.
실제 AI 시스템이 생성하는 개인 사용자 프로필은 사용자 자신보다 가치관, 관심사, 성격 특성, 편견 또는 정신 장애를 설명하는 데 더 정확할 수 있다. 이미 자신에 대해 알지 못했던 개인 정보를 제공한다는 사례도 알려졌다.
하지만 여기에는 두가지 문제가 있다고 밝혔다.
우선 AI 시스템을 신뢰할 수 있는지 확실하지 않다는 점이다. AI의 추천이 개인에게 도움이 되는 것인지 판단할 근거가 없으며, 이는 AI 시스템을 제작하는 회사조차도 모르는 블랙박스의 문제라는 것이다.
만약 AI가 믿을 수 있다고 해도 윤리적 우려가 남는다고 전했다. 우리가 정체성이라고 부르는 것은 통계나 데이터 등을 넘어 스스로 자신을 창조하는 의지와 능력에 달렸다는 것이다.
이런 정체성의 '자기 창조주의적' 측면은 장 폴 사르트르 등이 주창한 실존주의 철학과 맞닿아 있다고 설명했다. 실존주의자들은 인간이 미리 정해진 본성이나 본질에 의해 정의된다는 것을 부인한다.
본질 없이 존재한다는 것은 오늘의 나와는 다른 사람이 되기 위해 노력한다는 것이며, 이를 통해 자유롭고 독립적인 존재임을 확인해야 한다는 것이다.
AI는 개인에 대해 많은 사실을 말할 수 있다. 하지만 단순히 웰빙을 추구하고 AI 추천을 따르는 것은 자신에 대한 책임을 포기하는 도덕적 실패라고 강조했다. 또 삶에서 좋은 선택을 하고 의미 있고 자신을 행복하게 하는 정체성을 구성하는 것이 성취라며, 이 힘을 AI에 넘기는 것은 문제라고 덧붙였다.
로이엔버그는 "AI 추천 시스템에 계속 의존하면 정체성이 굳어질 수 있으며, 이를 '석회화 효과' 강화로 볼 수 있다"라고 강조했다.
따라서 평범한 경우에도 때로 추천 시스템을 제쳐두고 영화, 음악, 책 또는 뉴스를 선택하는 데 적극적으로 나서는 것이 좋다고 밝혔다. 물론 시간을 낭비하거나 실수를 저지를 수도 있지만, 이를 통해 변화하는 것이 성장이라는 설명이다.
한편, 알고리즘 추천에 대한 분석은 이전에도 등장한 바 있다. 하지만 이번에는 AI 기술 발전으로 대형언어모델(LLM)이 우리에 대해 더 많은 것을 알게 되는 것에 초점을 맞췄다.
또 이처럼 최근에는 AI 의존에 따른 개인 의지와 정체성에 대한 문제 지적이 점점 늘어나고 있다. AI의 현존하는 위험은 인류를 멸망시키는 디스토피아적 시나리오가 아니라, AI 의존도가 점점 높아진다는 내용이 공통으로 지적되고 있다.
특히 AI 추천은 기업들이 '초개인화'라는 이름으로 추진하는 핵심 서비스이기도 하다. 이번과 같은 문제 제기가 과연 맞춤형 서비스와 어떤 관계를 이뤄갈지도 관심이다.
임대준 기자 ydj@aitimes.com
