3월 3주

(영상제작=AI타임스)

오픈AI가 멀티모달 기능을 갖춘 'GPT-4'를 드디어 공개했습니다.

오픈AI는 2020년 GPT-3에 이어 지난해 11월말 GPT-3.5 버전을 발표했습니다.

GPT의 3.0 버전은 그동안 나온 언어모델 중 가장 성능이 좋다는 평가를 받았고, 3.5 버전 중 하나인 챗GPT는 아시는대로 놀라운 성능으로 큰 인기를 누리고 있습니다. 

이에 오픈AI가 올해 4.0버전을 내놓겠다고 밝혔을 때부터 GPT 시리즈가 또 얼마나 더 발전할 지 관심과 기대가 컸습니다. 

일각에서는 'GPT-4가 인간의 지능을 넘어서는 범용 인공지능(AGI)에 가까워지는 것 아니냐'거나 '모델의 크기를 나타내는 매개변수의 수(GPT-3의 매개변수=1750억개)가 인간 뇌의 시냅스 수와 비슷한 100조개가 된다더라'는 등의 추측과 소문도 돌았습니다. 

샘 알트만 오픈 AI CEO(사진=유튜브 캡처)
샘 알트만 오픈 AI CEO(사진=유튜브 캡처)

샘 알트만 오픈AI CEO는 "우리는 AGI를 갖고 있지 않다"거나 "모델의 크기가 중요한 것은 아니다"며 모두 부인하기도 했습니다. 그는 "GPT-4에 대해 안전하게 배포할 수 있다는 자신이 들 때 내놓겠다"면서 뜸을 들여왔는데 결국 지난 15일 공개했습니다. 

오픈AI와 긴밀하게 협력해온 마이크로소프트도 같은날 새로운 '빙' 검색에 GPT-4를 이미 도입해서 써왔다고 밝혔습니다. 마이크로소프트는 "지난 5주 동안 새로운 빙 검색을 사용했다면 이미 이 강력한 모델의 초기 버전을 경험한 것"이라고 전했습니다.

오픈AI는 "GTP-4는 특정 영역에선 인공지능이 인간과 비슷한 수준에 올랐다는 것을 보여주는 모델"이라고 소개했습니다. 특히 이전 버전인 GPT-3.5에 비해 성능이 좋아졌다고 강조했습니다.

예를 들어 미국 변호사 시험에서 GPT-4는 상위 10%의 성적을 기록했습니다. 이전 모델은 하위 10% 정도였습니다. 오픈AI는 "두 버전이 비슷하게 보일 수도 있지만, 작업이 복잡해질수록 GPT-4가 더 안정적이고 창의적이며 훨씬 더 미묘한 지침을 처리할 수 있다"고 설명했습니다.

GPT-4가 사진과 텍스트로 된 프롬프트에 답변한 예(사진=오픈AI 블로그)
GPT-4가 사진과 텍스트로 된 프롬프트에 답변한 예(사진=오픈AI 블로그)

■ 이전 모델과는 정확히 어떤 점이 달라졌을까요? 

우선 GPT-4는 이미지를 인식한다는 점에서 가장 큰 차이가 있습니다. 냉장고 안을 찍은 사진과 함께 '이 사진에서 보이는 재료들로 할 수 있는 요리를 알려줘'라고 명령하면 몇 가지 요리를 추천합니다.

오픈AI는 이런 이미지 인식 기능이 추가된 데 따라 새 모델을 멀티모달(Multimodal)로 규정했습니다. 멀티모달은 텍스트, 이미지, 오디오, 비디오 등 여러 양식(mode)에 반응하는 기능을 말합니다.

그러나 GPT-4는 이미지를 인식할 뿐 새로운 이미지를 생성해내지는 못하고 여전히 텍스트로만 답합니다. 따라서 멀티모달로 입력하고 출력하는, 완전한 의미의 멀티모달 모델은 아닙니다. 하지만 언어 모델이 이미지를 인식하게 된 것은 주목할만한 진화라고 할 수 있겠습니다. 

GPT-4는 저장능력도 개선됐습니다. 사용자가 명령하고 모델이 응답하는 상호작용이 길어지는 경우에 전에는 책으로 말하자면 20페이지 정도를 기억할 수 있었는데요, 이제는 50페이지 정도로 기억력이 좋아졌습니다.

이와함께 26개 언어로 사용할 수 있게 됐고 사용자 정의를 통해서 이 모델에 대해 통제를 좀 더 잘할 수 있게 된 점도 달라진 모습입니다.

한편 오픈AI는 GPT-4에 대해 "대형언어모델(LLM)로서 갖는 한계나 위험은 여전하다"면서 사용에 유의해달라고 당부했습니다. 거짓말을 그럴듯하게 하는 ‘환각 현상’은 근절되지 않았으니 조심해야 한다는 겁니다.

윌리엄 팰콘 라이트닝AI CEO가 트위터에 올린 그림. GPT-4 기술 보고서에 아무 것도 담기지 않았다고 비꼬는 내용이다.(사진=윌리엄 팰콘 트위터)
윌리엄 팰콘 라이트닝AI CEO가 트위터에 올린 그림. GPT-4 기술 보고서에 아무 것도 담기지 않았다고 비꼬는 내용이다.(사진=윌리엄 팰콘 트위터)

■그런데 오픈AI가 GPT-4를 발표한 뒤에 전문가들의 비판이 잇달아 나왔습니다. 이 모델의 기술 정보를 사실상 아무 것도 공개하지 않았다는 비판입니다.

예를 들어 GPT-4의 매개 변수가 얼마나 될 지가 그동안 업계의 관심사 중 하나였는데 오픈AI는 여기에 대해 아무런 언급도 하지 않았습니다. 특히 어떤 훈련 데이터를 썼는지 또 이를 통해 어떤 기능을 시험했는지 등 인공지능 연구개발 커뮤니티에서 관행적으로 공개해온 사항들도 밝히지 않았습니다. 

이 때문에 전문가들이 ‘오픈(open)이라는 이름은 바꾸라’, ‘주요 기술 정보를 숨기면서 개방적인 체한다’는 등의 비판을 쏟아내고 있습니다. 오픈AI의 이런 입장은 새 모델을 다른 누군가가 복제할 수 없도록 하려는 것으로 풀이됩니다. 

오픈AI는 이전엔 기술을 개발하면 공개해 인공지능 개발 커뮤니티가 공유하면서 더 많은 기술 발전을 이끌도록 하는 오픈소스 관행에 동참해 왔는데요, 이번엔 기업적 이익을 지키는 쪽으로 돌아선 모습이어서 비난이 나오고 있습니다.  

질의응답 검색 서비스인 쿼러의 챗봇 '포우'에 GPT-4가 도입됐다.(사진='포우' 캡처)
질의응답 검색 서비스인 쿼러의 챗봇 '포우'에 GPT-4가 도입됐다.(사진='포우' 캡처)

■ 오픈AI가 'GPT-4'를 발표한 직후부터 이를 도입했다고 밝힌 기업이 잇달아 나오고 있습니다. 정부 기관과 대기업에서부터 스타트업에 이르기까지 지금까지 알려진 곳만 7곳입니다. 

투자은행 모건스탠리가 데이터 구성에 적용하고 있다고 밝혔고 언어학습 기업 듀오링고, 비영리 학습 기관 칸 아카데미, 아이슬란드 정부 등도 GPT-4를 도입했다고 밝혔습니다. 

구인구직 사이트 링크드인은 GPT-4를 도입해 프로필 작성이나 구인광고 문구를 자동으로 작성할 수 있도록 하겠다고 밝혔고요, 질의응답 검색 서비스 쿼러도 자체 개발한 챗봇 ‘포우’에 GPT-4를 연결해 유료로 쓸 수 있게 했습니다.

핀테크 스타트업인 스트라이프도 GPT-4를 도입해 디지털 지불 처리를 비롯한 기능에 통합하고 있다고 전했습니다.

이어서 업계 주요 동향 전해드립니다.

업계 동향

(사진=셔터스톡)
(사진=셔터스톡)

■정부가 차세대 반도체 분야의 핵심 기술개발에 3조2000억원을 투자합니다. 산업통상자원부는 3대 유망 반도체 기술 분야로 전력반도체와 차량반도체, AI반도체 등 3분야를 지목해 투자계획을 세웠습니다.

■생성 AI)로 좋은 글이나 그림을 얻을 수 있는 명령어를 사고파는 '프롬프트 마켓'이 최근 14개로 늘어났고 매달 증가하는 추셉니다. 대표적인 마켓은 챗X와 뉴트론필드 등입니다.

(사진=뤼튼 테크놀로지스)
(사진=뤼튼 테크놀로지스)

■AI 콘텐츠 생성 기업인 뤼튼테크놀로지스가 최대 1억원의 연봉을 내걸고 국내 기업으로는 처음으로 '프롬프트 엔지니어'를 공개 채용합니다. 프롬프트를 만들고 실험하는 새 직종입니다.

■바이두가 16일 예정대로 '중국의 챗GPT'를 표방한 챗봇 '어니봇'를 공개했습니다. 그러나 시연을 사전 녹화영상으로 대체하는 등 실망스러운 모습을 보였습니다. 주가가 폭락했습니다.

정병일 위원 jbi@aitimes.com

키워드 관련기사
  • 구글, MS에 맞서 새로운 생성 AI 라인업 발표
  • MS, 이미지 생성하는 ‘비주얼 챗GPT’ 공개
  • 대세는 '생산성 앱'...기업용 생성 AI 서비스 봇물