해커톤 대회서 '탈옥'으로 우승 차지

(사진=셔터스톡)
(사진=셔터스톡)

'챗GPT'와 같은 생성 인공지능(AI)을 악용, 보안을 위협할 수 있다는 우려가 현실로 드러났다.

월스트리트저널(WSJ)은 사이버 보안회사 클레로티 소속의 팀이 해커톤 대회에서 챗GPT의 도움으로 시스템을 혼란에 빠뜨리는 데 성공, 우승을 차지했다고 20일(현지시간) 보도했다.

이에 따르면 노암 모세 클레로티 연구원은 동료와 함께 지난 달 마이애미에서 열린 해커톤 대회(Pwn2Own)에 참가, 챗GPT로 버그 코드를 작성해 시스템의 약점을 파고드는 데 성공했다. 팀은 10번의 시도를 모두 성공해 12만3000달러(약 1억6000만원)의 상금을 획득했다.

오픈AI나 다른 생성 AI를 서비스하는 기업은 오남용을 방지하기 위해 제어 및 필터 기능을 갖추고 있다. 하지만 전문가들은 해커가 직설적으로 악성 코드 생성을 지시하는 게 아니라 우회적인 방법으로 챗봇을 속일 수 있다고 지적한다.

모세 연구원 역시 “단 하나의 버그도 시스템을 통과하지 못했지만, 일련의 버그를 조작하고 연계해 가능하게 만들었다"며 "버그와 관련된 코드를 작성하는 데 챗GPT를 이용해 시간을 단축했다"고 말했다.

이에 대해 일부 전문가는 챗GPT의 기능이 과장된 것이라고 말한 바 있다. 더스틴 차일즈 트렌드 마이크로 보안책임자는 "챗GPT는 예측할 수 없고 오류에 취약하기 때문에 신뢰할 수 있는 무기가 될 수 없다"며 “AI가 스스로 취약성을 찾아내는 데에는 몇 년이 걸릴 것”이라고 말했다.

반면 크리스토퍼 와이트 버지니아 커먼웰스대학교 교수는 "일부 나쁜 사람들이 챗봇의 사이버 보안 경계를 우회하려고 할 것"이라며 "명백한 불법을 지시하는 대신 챗봇이 통제에서 빗겨나도록 대화를 주도하는 방법, 즉 '탈옥'을 택할 것"이라고 예측했다.

또 그렉 브록만 오픈AI 공동 창립자는 최근 한 행사에서 챗GPT가 허위 정보 확산과 사이버 공격이라는 두 가지 작업을 잘 수행할 수 있다고 경고했다. 

그러나 전문매체인 다크리딩은 "오픈AI가 챗봇의 사이버 보안 위협을 완화하기 위해 무엇을 하려는 지에 대해서는 언급하지 않았다"고 지적했다. 따라서 당분간 챗봇을 방어하는 것은 오직 사이버 보안 회사의 몫으로 보인다고 평했다.

임대준 기자 ydj@aitimes.com

키워드 관련기사
  • 생성 AI, 보안 솔루션에 잇달아 도입...그 이유는
  • ‘챗GPT’로 이메일 피싱 급증 우려
  • “AI개발과 배포는 신중해야”...구글, '챗GPT' 관련 첫 입장 표명