(사진=셔터스톡)
(사진=셔터스톡)

피싱 이메일을 작성하고 악성 코드를 생성하는 등 챗GPT로 인한 보안 문제가 점차 부각되고 있다.

이에 따라 전문 매체 벤처비트는 최고 보안 전문가를 대상으로 설문조사를 실시, 챗GPT 등장으로 늘어난 보안 위협 요소를 23일(현지시간) 소개했다.

대표적인 8가지 문제점은 아래와 같다. 전문가별로 가장 큰 문제점을 꼽아달라고 했기 때문에, 일부 내용은 여러 곳에서 반복된다.

■ 낮아진 사이버 범죄 진입 장벽
전통적으로 사이버 범죄는 숙련된 기술과 비용 등이 필요했다. 하지만 텍스트 입력만으로 악성 코드를 생성해낼 수 있는 챗GPT로 인해 진입 장벽이 크게 낮아졌다는 평이다.

■ 설득력 있는 피싱 이메일 작성
가장 많이 보고된 사례이며 큰 문제점으로 꼽히는 게 피싱 메일이다. 사람과 구분할 수 없을 정도의 정교한 글을 작성하는 챗GPT의 주특기 분야이기도 하다.

■ AI 지식을 갖춘 보안 전문가 필요
전문가들은 챗GPT로 인한 사이버 보안 문제가 아직 초기 단계에 불과하다고 지적했다. 향후 새로운 차원의 문제가 불거지면, 전문 AI 지식을 갖춘 보안 담당자가 반드시 필요할 것이라고 예측했다.

■ 생성 AI의 출력 모니터링
챗GPT는 의식하지 못하는 사이에 기업 정보를 외부로 노출할 수 있다. 이 때문에 챗GPT 사용을 금지하는 기업도 늘어나고 있다. 생성한 콘텐츠를 철저히 모니터링하는 것은 필수다.

■ 늘어나는 공격량
'인터넷 데이터를 사용해 특정인의 주변 인물을 파악, 그 이름으로 계속 메시지를 보낸다'와 같은 텍스트 프롬프트 하나만으로, 피싱 이메일을 쉽게 대량으로 발송할 수 있다. 새로운 위협이 등장했다기보다 이같이 익숙하지만 늘어나는 공격이 문제라고 전문가들은 지적했다.
  
■ 늘어나는 보안 비중
기업은 챗GPT 같은 생성 AI 도입에 보안을 가장 우선할 것이라는 분석이다. 또 이를 효과적으로 통제하기 위해 사용 정책을 설정하고 프로세스를 구축하는 등 별도 부담이 생길 것이라는 전망이다.

■ 인간의 부담 증가
일반적인 사이버 범죄는 공격자나 방어하는 쪽 모두가 모범 사례를 통해 기술을 발전시킨다. 그러나 이번에 공격자는 AI다. 방어하는 인간의 부담이 가중될 것은 당연하다.

■ 하지만 변한 것은 없다
챗GPT는 분명 강력한 기술이지만, 공격 방법과 루트는 이미 기존의 것을 답습하는 형태다. 즉 챗GPT라고 해서 피싱 메일을 보내는 데 이메일 계정을 사용하지 않을 수 없으며, 피싱 사이트를 지정하지 않는 것은 아니다. 이런 요소들은 전통적인 것으로, 충분히 감지할 수 있는 문제라고 지적한다.

강두원 기자 ainews@aitimes.com

키워드 관련기사
  • 사람에게 사기치고, 시스템 탈출 계획 세운 'GPT-4'
  • "트럼프 체포됐나?"...AI로 생성한 가짜 이미지 확산
  • 챗GPT로 악성 코드 생성...생성 AI 악용 우려 입증