AI 사이버 공격 갈수록 맹렬해지고 파괴력도 커질 것으로 예상돼
전문가들 "지속적 보안 교육 및 AI 활용한 대책으로 피해 예방해야"

(사진=셔터스톡)
(사진=셔터스톡)

인공지능(AI) 기술이 사이버 공격에 활용되면서 파괴력이 커지고 있어 피해 예방이 중요해지고 있다는 지적이 나오고 있다. 미 IT매체 벤처비트는 17일 전문가들을 인용해 AI를 활용한 사이버 공격의 증가가 앞으로 불가피할 것으로 전망하면서 대응에 나설 필요가 있다고 강조했다.

지난 3일 미국 상원 군사위원회 사이버 보안 소위원회에서 마이크로소프트의 최고과학책임자인 에릭 호로위츠는 사이버 보안 공격이 정교해지고 있는데 따라 조직들이 새로운 과제에 직면하게 될 것이라고 강조했다. 그는 “AI가 사이버 보안 위협을 탐지하는 능력을 개선하고 있는 반면 공격자 역시 능력을 개선하고 있다”며 “사이버 공격에서 AI의 활발한 사용에 대한 정보는 아직 부족한 상태이지만 AI 기술을 사용한 다양한 형태의 탐색 및 자동화, 즉 '공격적 AI(offensive AI)'를 통해 사이버 공격을 고조시킬 수 있다”고 밝혔다. 

AI를 사용해 공격을 고조시키고 탐지를 회피하는 위협 행위자에 대응할 필요가 있는 곳은 군사 분야만이 아니다. 전문가들은 기업들이 점점 더 많은 주요 보안 침해 사건들에 대응하고 있는 가운데 갈수록 정교해지는 AI 기반 사이버 범죄에 대비해야 할 필요성이 커지고 있다고 분석한다. AI 사이버 보안 기업 다크트레이스의 사이버 혁신 담당 부사장 막스 하이넨메이어는 “아직 ‘터미네이터’의 사이버 AI가 등장해 어디에서든지 큰 피해를 입게 되는 ‘빅뱅’은 보지 못했지만 공격자들은 이런 전쟁을 준비하고 있다”며 “공격자가 과거와는 개념이 다른 공격을 통해 엄청난 파괴적 피해를 불러일으킬 수 있다”고 전망했다.

그는 “새로운 사이버 무기로 알려진 2017년 워너크라이(WannaCry) 랜섬웨어 공격과 같이 AI를 사용하지 않는 공격도 있었고, 오늘날 우크라이나-러시아 전쟁에서 사용되는 멀웨어는 이전에는 볼 수 없었던 것”이라고 설명했다. 지금까지 우크라이나-러시아 전쟁에서 드러난 AI의 사용은 러시아 정부의 딥페이크 및 우크라이나의 논란이 되고 있는 클리어뷰 AI 안면 인식 소프트웨어에 국한돼 있다.

그러나 보안 전문가들은 대응을 준비하고 있다. 지난해 다크트레이스 설문 조사에 따르면 사이버 범죄자들의 잠재적 AI 사용에 대해 우려하는 IT 보안 리더들이 점점 늘어나고 있는 것으로 나타났다. 응답자의 60%는 인간의 대응이 사이버 공격의 속도를 따라가지 못하고 있다고 답했고 거의 모두(96%)가 이메일, 고급 스피어 피싱(특정 개인이나 회사 대상 피싱 공격), 사칭과 관련된 AI 기반의 위협으로부터 기업을 보호하기 위한 대응에 나서기 시작했다고 밝혔다. 

보안 회사 워치가드의 CSO(최고보안책임자) 코리 나크라이너는 “머신 러닝이나 AI 공격에 대한 실제 조사 결과는 거의 없었지만, 공격자들이 이미 AI를 사용하고 있는 것은 확실하다”며 “공격자들은 이미 머신 러닝을 사용해 더 많은 사회공학적 공격을 지원하고 있다. 많은 양의 빅데이터와 암호를 얻을수록 원활한 해킹을 위한 학습이 가능해진다”고 설명했다. 

그는 “머신 러닝 알고리즘으로 스피어 피싱 공격, 즉 특정 대상을 겨냥한 일반적이지 않은 사기성 이메일을 과거보다 더 많이 보내게 될 것”이라며 “안타깝게도 스피어 피싱 메시지를 클릭하지 못하도록 사용자를 교육하는 것은 어려운 일”이라고 덧붙였다. 

IT 서비스 업체인 인포시스의 북미 지역 인공지능 컨설팅 부문 부문장 세스 시겔에 따르면 보안 전문가들은 AI를 사용하는 공격자에 대해 명시적으로 생각하지 않을 수 있지만 점점 더 늘어나는 빠른 공격을 경험하고 있으며 AI 사용이 곧 확대될 것으로 전망하고 있다고 밝혔다. 

그는 “전문가들은 (사이버)공격이 점점 빨라지고 맹렬해지고 있는 것을 보고 있다”며 “3년 전과 비교해 볼 때 지난해보다 환경이 매우 공격적이고 상황은 점점 악화되고 있다”고 설명했다. 또 “기업들은 스피어 피싱 이상의 공격을 걱정해야 할 것”이라며 “기업이 가장 큰 AI 위험 중 하나를 어떻게 처리할 수 있는지가 관건인데, 바로 머신 러닝 모델에 불량 데이터가 도입되는 것”이라고 경고했다.

이러한 공격은 개인이 아니라 최고의 해커 및 범죄 집단으로부터 시작될 것이라는 전망이 나온다. 시겔 부문장은 “그들은 가장 빠른 최첨단 기술을 사용하고 있다. 이러한 수준의 공격을 처리할 수 있는 역량을 갖추지 못한 부서들을 압도하고 있다“며 ”기본적으로 AI를 상대로 한 대응에 사람이 나설 수는 없다"고 밝혔다. 

(사진=셔터스톡)
(사진=셔터스톡)

보안 전문가들은 AI 사이버 공격에 대비하기 위해 몇 가지 필수 조치를 취해야 한다는 의견을 제시한다. 나크라이너 CSO는 “우선 지속적인 보안 인식 교육 제공이 필요하다. 스피어 피싱의 문제는 이메일이 실제 비즈니스 메시지처럼 보이도록 맞춤 지정돼 있어 차단하기 훨씬 어렵다”며 “보안 인식 교육을 통해 비즈니스 형식에 맞는 것처럼 보이는 이메일이라도 이러한 공격을 예상하거나 의심할 수 있도록 해야 한다”고 강조했다. 

하이넨메이어 부사장은 정보관련 조직이 AI를 기본 보안 전략으로 수용해야 한다고 강조했다. 그는 “AI 활용을 기다리거나 단순히 AI를 사용하는 것이 아니라 자체적으로 AI를 예상하고 구현해야 한다”며 “현재는 이것이 얼마나 필요한 지 깨닫지 못하고 있는 것 같다. 하지만 일단 공격자들이 보다 맹렬하게 자동화 방식을 사용하기 시작하고 더 많은 파괴적인 공격을 시작하면 AI의 필요성을 느낄 수밖에 없을 것”이라고 밝혔다. 

시겔 부문장은 “사이버 공격이 개인의 나쁜 행위라는 관점을 바꿔야 한다”며 “국가적인 차원의 해킹과 범죄조직 해킹을 더 많이 감안해야 하고 방어 자세를 갖추는 동시에, 현재 일상적으로 다뤄야 하는 상황에 해당한다는 점도 인식해야 한다”고 강조했다. 그는 “기업들이 보안 체계를 최상위로 유지할 필요가 있다”며 “패치를 적용할 때는 해당 모델에 대해 합당한 수준의 중요도로 처리해야 하며 데이터와 모델을 감사해 악의적인 정보가 모델에 유입되지 않도록 해야 한다”고 설명했다.

나크라이너 CSO는 머신 러닝을 사용해 방어하는 방법을 알게 됐기 때문에 점점 더 많은 적대적 머신 러닝이 등장하고 있다고 지적했다. 멀웨어가 빠르게 변화하고 인증 기반 멀웨어 감지가 더 이상 규칙적으로 작동하지 못하고 있는 가운데 현재 기업들이 AI와 머신 러닝을 사용해 멀웨어를 사전에 더 잘 탐지하려 하고 있지만 머신 러닝 모델은 점차 공격에 취약해질 전망이다. 

하이넨메이어 부사장은 “AI에 기반한 위협 환경이 계속 악화될 것”이라며 “지정학적 긴장이 높아지면서 이러한 추세가 더욱 두드러질 것”이라고 밝혔다. 그는 중국이 AI 연구 대학과 국가 후원 해킹에 어떻게 얽혀 있는지를 다루고 있는 최근 조지타운 대학의 연구를 인용했다. 그는 “중국 정부가 다른 정부와 마찬가지로 학계 및 대학과 얼마나 긴밀하게 협력하고 있고 AI 연구를 통해 해킹에 대한 잠재적인 사이버 전략을 얼마나 잘 활용하고 있는지 많은 것을 알 수 있다”고 설명했다. 

그는 “이번 연구와 기타 현재 상황을 생각해 보면 지금부터 1년 후 AI를 활용한 사이버 위협에 대한 전망은 현재보다 더 암울할 것 같다”며 “인공지능을 채택하는 조직이 늘어나고 있기 때문에 방어도 개선되기는 하겠지만 쫓고 쫓기는 추격 게임에 빠지게 될 것”이라고 밝혔다.

AI타임스 이한선 객원 기자 griffin12@gmail.com

키워드 관련기사
  • "AI는 향후 사이버 전쟁에서 양날의 칼"
  • 중국 AI, 대규모 첩보 위성 띄운다
  • 우크라이나 전쟁으로 사이버 위협 증대....정부 비상대응체계 강화