구글이 '챗GPT' 등장으로 촉발된 대화형 인공지능(AI) 모델의 효용성과 검색 시장을 둘러싼 파급효과와 관련해 처음으로 입장을 표명했다.
'AI 개발과 배포는 신중해야 하며, 책임있게 해야 한다'는 내용이다.
구글은 챗GPT 등장으로 검색광고 매출이 큰 타격을 입게 될 것이라는 전망이 쏟아져 나오는 와중에도 침묵을 지켜왔다. 내부적으로는 비상을 걸어놓았지만 외부적으로는 입을 다물고 있었다.
자체 개발한 챗봇 '람다'가 '챗GPT' 못지않은 성능을 지니고 있음에도 그동안 공개를 미뤄온 구글이 그 배경을 설명하는 형식을 빌려 최근 분위기를 진화하려는 것으로 읽힌다.
구글은 여기에 그치지 않고 AI 기술의 복잡성과 위험성을 지적하면서 신중한 접근방식을 취해야 한다고 강조하는 것으로 지난해부터 봇물처럼 터져나오고 있는 생성AI 출시를 비판하기도 했다.
구글은 17일(현지시간) 블로그와 웹사이트에 이같은 입장을 담은 '우리의 초점'이라는 글을 올렸다. 이 글은 순다르 피차이 CEO를 비롯해 제임스 마니카 수석 부사장, 데미스 하사비스 구글 딥마인드 CEO 등 최고 경영진 공동 명의로 발표했다.
이에 앞서 뉴욕타임스는 지난달 21일 챗GPT 공개 이후 순다르 피차이 구글 CEO가 내부에 비상령(Core Red)을 내렸다고 보도했다. 피차이 CEO가 구글의 AI 전략과 관련해 열린 일련의 회의에서 챗GPT가 검색 엔진 사업에 가할 수 있는 위협을 해결하는 데 집중할 것을 지시했다는 내용이었다.
이후에도 챗GPT가 구글 검색을 대체할 가능성에 대한 이야기가 지속됐고, 구글이 람다를 공개하지 않는 이유에 대한 궁금증이 커져갔다.
구글이 결국 이같은 분위기에 밀려 입장문을 내놓은 셈이다. 구글은 이 글에서 5개 항목에 걸쳐 그동안의 업적과 AI 연구개발 원칙 등을 설명하고, AI 개발은 신중하고 책임있게 접근해야 한다고 강조했다.
구글은 이 글에서 먼저 지금이 AI의 발전에 있어서 가장 흥미진진한 시기라고 전제했다. 그러면서 자사의 접근방식은 전 세계 정보를 체계화하고, 보편적으로 접근 가능하며, 유용하게 만든다는 창립 사명에 따르고 있다고 설명했다.
AI는 사람과 사회에 강력하고 유용한 혜택을 제공할 수 있는 기초적이고 혁신적인 기술이며, 가장 시급한 도전과 기회에 대처할 수 있는 잠재력을 갖고 있다는 얘기도 곁들였다.
구글은 기초적이고 혁신적인 AI 연구를 주도해왔다. 요즘 각광받는 생성AI의 기반이 되는 트랜스포머나 디퓨전 모델을 비롯해 심층강화학습, 신경망 검색, 대규모 분산 심층 네트워크, 텐서 처리 장치 등의 기술을 개발했다.
실제로 구글은 AI를 적용한 제품과 서비스를 개발해 이미 세계인들이 많은 혜택을 누리게 하고 있다. 구글 번역, 단백질 구조 예측 모델인 알파폴드, 무인자동차 웨이모, 신약 개발과 로봇공학 등 다양한 성과를 거뒀다.
구글은 이같은 성과를 나열한 뒤 'AI 기술은 장점과 동시에 다양하고 진화하는 복잡성과 위험성을 내포하고 있다'고 환기시켰다. 따라서 기업 입장에서는 AI를 책임감 있게 추구하는 것이 반드시 필요하다고 강조했다.
AI의 위험성은 품질이나 정확도 측면에서 의도한대로 작업을 수행하지 않는 경우를 비롯해 ▲부적절한 데이터에 의존 ▲너무 이르거나 테스트가 불충분한 상태에서 안전하지 않게 배포 ▲오남용 ▲사회적 편견과 피해 증폭 등의 경우를 들었다.
또 ▲ 사이버 보안 위험 생성 ▲잘못된 정보 위험 초래 ▲실제 갖지 않은 기능을 가지고 있다는 인상 ▲노동시장 등에서 불평등과 사회경제적 피해 유발 등의 사례에서 AI의 위험성이 명백하게 드러난다고 지적했다.
그러면서 구글은 2018년에 사업성보다는 사용자와 안전 및 피해방지를 우선시하는 AI원칙을 처음으로 공식화 했고, 이후 많은 모범 사례를 개척하는 등 '책임있는 AI' 개념에 입각한 접근 방식을 취해 왔다는 사실을 재차 강조했다.
연구의 우선 순위 결정부터 제품화 및 사용에 이르기까지 AI의 유익한 사용과 피해 방지에 초점을 맞춘 작업원칙을 의도적으로 적용하고 있으며, 이를 지속적으로 업데이트 하고 있다고 것이다.
구글은 AI를 올바르게 사용하려면 공동의 노력이 필요하다고 믿는다면서 AI와 관련된 개인과 기업, 연구소, 개발자, 배포자, 학계와 시민사회, 정부와 사용자 등 모든 이들이 협력해야 한다고 주장했다. 또 이를 위해 구체적인 공동 협력 방안도 제시했다.
▲AI 개발 및 AI 시스템 배포에 대한 책임 있는 접근 방식 채택 ▲사람과 사회에 혜택을 주는 데이터 및 개인 정보 보호 관행 수립 ▲강력한 AI 인프라와 사이버 보안으로 보안 위험 완화 ▲혁신과 AI의 안전하고 유익한 사용을 장려하고 AI의 오용, 오용 또는 유해한 사용을 방지하는 규정 마련 ▲표준 및 모범 사례 개발을 위한 커뮤니티 간 협업 ▲정부 및 시민사회 지도자들과 함께하는 나눔과 배움 ▲사회적 관심 영역에서 신뢰를 구축하기 위한 실질적인 책임 메커니즘 구축 ▲AI 안전, 윤리 및 사회 기술 연구에 대한 투자 ▲세계의 다양성을 완전히 반영하고 도전과 기회를 더 잘 해결하기 위해 더 크고 다양한 AI 실무자 커뮤니티 양성 등이다.
구글은 "AI는 대담하고 책임감있게 추구한다면 모든 사람들의 삶을 변화시키는 기초 기술이 될 수 있다고 믿는다"면서 "이것이 우리를 흥분시키는 것"이라고 글을 맺었다.
정병일 위원 jbi@aitimes.com
