
구글이 이스라엘 군수업체에 인공지능(AI) 기술을 지원했다는 내부 고발이 드러나면서 이슈가 되고 있다. 이 사건은 구글이 무기 관련 기술에 AI 적용을 금지한 자체 윤리 규정을 위반한 것으로 주장되며 직원들 사이에서 큰 반발을 낳고 있다. 워싱턴포스트(WP)는 구글이 2024년 이스라엘 군수업체의 드론 영상 분석에 AI 모델 제미나이를 지원한 사실을 보도했다.
이 고발자는 전직 구글 직원으로, 이미 미국 증권거래위원회(SEC)에도 고발장을 접수한 상태다. 고발 내용에 따르면, 2024년 7월 구글 클라우드 부서는 이스라엘군 이메일 주소를 사용하는 인물로부터 고객 지원 요청을 받았으며, 이는 드론, 장갑차, 군인을 더 정확히 식별하기 위해 제미나이를 개선해 달라는 요구가 담겨 있었다. 이 요청을 처리한 구글 직원들은 내부 테스트를 통해 고객의 요구에 대응한 것으로 확인되었다.
해당 요청을 한 인물은 이스라엘의 기술 기업 ‘클라우드 엑스’ 직원 명단과 일치하며, 클라우드 엑스는 이스라엘군의 협력업체로 지목된다. 이 회사는 이스라엘 텔아비브에서 열린 ‘이스라엘군을 위한 IT 기술 콘퍼런스’를 후원했다는 점에서 논란의 여지가 크다. 구글은 공식 AI 원칙상 무기 관련 기술이나 국제적으로 인정된 규범을 위반하는 감시활동에 AI를 활용하지 않겠다고 명시하고 있기 때문에, 가자지구에서의 이스라엘 군 작전과 관련된 업체에 AI를 지원했다면 이는 윤리 규정을 위반한 것이라는 주장이 제기되고 있다.
고발자는 SEC에 구글이 공개 정책과 모순되는 행동으로 투자자와 규제기관을 속였다고 주장하며, 증권법 위반을 고발했다. 그는 “내 프로젝트 대부분이 내부 AI 윤리 검토 절차를 통과했으며, 구글은 AI 원칙의 중요성을 직원들에게 강조해왔다. 그러나 이스라엘과 가자 문제에서는 정반대의 행동을 보였다”고 밝혔다.
구글 측은 이 같은 주장을 반박하며 해당 계정의 AI 서비스 사용량이 의미 있는 수준에 미치지 못했기 때문에 원칙 위반이 아니라고 주장했다. 또한, “일반적인 사용 문의에 대해 다른 고객과 마찬가지로 답변했을 뿐 추가적인 기술 지원은 없었다”며 상황을 설명했다.
그럼에도 불구하고 이스라엘 협력 사업을 둘러싼 직원들 사이의 반발은 누적돼 왔으며, 2021년 구글과 아마존이 이스라엘 정부와의 클라우드 계약을 따내자 이에 반대하는 직원들이 시위를 벌였다. 이와 같은 갈등은 최근 더욱 심화되고 있으며, 2024년 4월에 직원들이 이스라엘과의 협력 중단을 요구하는 농성을 벌이자 구글은 관련 직원 50여명을 해고하기도 했다.
WP는 구글이 2004년 상장 당시 ‘악이 되지 말자(Don’t be evil)’라는 모토를 내세우며 소비자와 기업 서비스에 주력해온 반면, 방위 계약을 추진하면서 회사 내부에서 반발이 일고 있는 점을 지적했다. 이러한 윤리적 딜레마와 직원들의 저항이 구글의 향후 정책과 방향성에 어떤 영향을 미칠지 주목되는 상황이다.






