구글이 자신들이 만든 인공지능(AI) 챗봇 '바드'의 사내 사용을 일부 제한했다. 챗봇이 완벽하지 않다는 것을 거듭 인정했다.
로이터는 15일(현지시간) 정통한 소식통을 인용, 구글이 직원들에게 회사의 기밀 자료를 챗봇에 입력하지 말라고 했다고 보도했다.
이에 따르면 구글은 엔지니어들에게는 바드가 생성한 코드를 직접 사용하지 말라고도 경고했다.
구글은 공식 논평에서도 같은 뜻을 밝혔다. 회사 기밀에 대한 문제는 원칙적인 입장을 보였으며, 코딩 문제에 대해서는 바드가 원하지 않는 제안을 할 수도 있지만 여전히 프로그래머에 도움이 된다고 전했다.
더불어 구글은 기술의 한계에 대해 투명하게 밝히는 것을 목표로 한다고 강조했다. 실제로 지난 1일 업데이트한 구글 개인정보 보호 공지에 "바드와의 대화에 기밀 정보나 민감한 정보를 포함하지 말라"고 명시했다.
이런 조치는 최근 전 세계 주요 기업에서는 이미 보편화된 일이다. 삼성전자는 사내 기밀 유출 후 챗GPT 등 생성 AI의 사용을 금지했고, 애플과 아마존 등도 사내 챗봇 사용 가드레일을 강화한 것으로 알려졌다.
마이크로소프트의 경우 공식적인 답변을 피했으나, 내부 인원에 따르면 구글과 마찬가지로 개인적 사용을 제한한 것으로 밝혀졌다.
한편 구글은 이번 주부터 유럽에서 시작하려던 바드의 서비스를 연기했다.
아일랜드 데이터보호위원회(DPC)에 따르면 구글은 이번 주에 바드를 출시한다고 통보했으나, 데이터보호 영향평가 등 필요한 서류를 제출하지 않아 자동으로 출시가 연기됐다.
이에 대해 구글은 DPC와 자세한 대화를 나누는 등 규제당국에 협조하고 있다고 밝혔다.
임대준 기자 ydj@aitimes.com
