(사진=오픈AI)
(사진=오픈AI)

오픈AI가 인공지능(AI)과 관련된 ‘재앙적 위험’을 완화하기 위해 새로운 팀을 구성했다.

테크크런치는 26일(현지시간) 오픈AI가 핵 위협을 포함해 AI로 인해 발생할 수 있는 잠재적인 주요 문제를 추적, 평가 및 보호하기 위한 '준비(Preparedness)’ 팀을 새롭게 구성했다고 보도했다. 

이에 따르면 알렉산더 매드리 MIT 기계학습 센터 소장이 이끌 준비 팀은 인간을 속이는 AI의 능력과 사이버 보안 위협부터 화학적, 생물학적, 방사성 위협과 자율 복제 행위 등 AI 시스템의 잠재적 위험을 분석하고 방지하는 역할을 하게 된다.

또 차세대 AI 기술을 말하는 일명 '프론티어 모델’ 개발로 발생할 위험을 줄이기 위한 정책도 마련할 예정이다. 

오픈AI는 준비 팀의 출범에 맞춰 커뮤니티에서 위험 연구를 위한 아이디어 공모전을 준비하고 있다. 상위 10개 제출물에는 2만5000달러(약 3400만원)의 상금이 지급된다.

오픈AI는 “현재 가장 발전된 기존 모델에 존재하는 기능을 뛰어넘는 최첨단 AI 모델은 모든 인류에게 혜택을 줄 수 있는 잠재력을 가지고 있지만, 동시에 더 심각한 위험을 초래하고 있다"라며 “본격 등장에 앞서 고성능 AI 시스템 안전에 필요한 이해와 인프라를 확보해야 한다”라고 밝혔다.

한편 샘 알트먼 오픈AI CEO는 이전에도 AI로 인해 발생할 수 있는 재앙적인 사건의 가능성에 대해 경고한 바 있다.

지난 5월 알트먼 CEO는 데미스 허사비스 구글 딥마인드 CEO, 제프리 힌튼 및 요수아 벤지오 교수 등과 함께 "AI로 인한 멸종 위험을 완화하는 것이 전 세계의 우선순위가 되어야 한다"라는 성명을 발표했으며, 영국을 찾아 “정부가 AI를 핵무기처럼 심각하게 다루어야 한다”라고 제안하기도 했다.

박찬 기자 cpark@aitimes.com

저작권자 © AI타임스 무단전재 및 재배포, AI학습 및 활용 금지