
최근 미국 정부의 이란 공습에 앤스로픽의 AI 모델 ‘클로드’가 사용되면서 AI 윤리에 대한 논란이 격화되고 있다. 월스트리트저널의 보도에 따르면, 미국의 중부사령부(CENTCOM)는 클로드를 통해 정보 수집, 표적 식별 및 전투 시나리오 시뮬레이션 등을 실시했으며, 이란 지도부와 같은 주요 표적을 찾아 우선순위를 정하는 데 기여했다고 한다.
앤스로픽이 본사의 AI 모델을 군사 작전에 제공한 건 도널드 트럼프 행정부가 앤스로픽과의 긴장관계를 유지하고 있는 상황에서 이뤄졌다. 트럼프 대통령은 자신의 사회관계망 서비스(SNS)에서 앤스로픽을 “좌파 기업”으로 지칭하고, 연방정부가 자사의 기술을 사용하지 않겠다고 선언한 후 몇 시간 만에 이란 공습이 감행됐다. 이러한 상황은 앤스로픽과 정부 간의 갈등을 더욱 부각시키고 있으며, 지난해부터 국방 영역에서 AI의 활용을 두고 대립해온 양상이 더욱 심화된 것으로 보인다.
앤스로픽은 자신들의 AI 모델이 자국민을 감시하거나 인간의 최종 결정을 무시하는 완전 자율 무기체계에 사용되지 않도록 하겠다고 밝혔다. 그러나 미 국방부는 “국방물자생산법”(DPA)을 근거로 앤스로픽에 대한 압박을 계속하고 있으며, 이와 관련된 두 기관의 갈등은 더욱 심화되고 있다.
사회 전반에서 AI 윤리의 중요성이 대두되면서 사람들은 인권을 고려해야 한다고 목소리를 높이고 있다. 미국 내에서 AI 기업은 윤리를 준수하는 것이 점점 더 중요하게 여겨지고 있으며, 앤스로픽은 이러한 시각에서 긍정적인 평가를 받고 있다. 최근 클로드는 애플 앱스토어에서 무료 앱 순위 1위를 차지하는 등 사용량이 급증하고 있으며, 이는 윤리를 최우선으로 하는 AI 기업에 대한 사람들의 선호도를 반영한다.
반면, 오픈AI는 미 국방부의 기밀 네트워크에 서비스를 제공하기로 한 계약 이후 비판을 받고 있으며, 민주당 내에서 “대중 감시는 용납할 수 없다”는 지적이 이어지고 있다. 이러한 갈등은 미국 사회 내 AI 기술의 군사적 활용에 대한 반발심과 걱정이 자리 잡고 있음을 보여준다.
국내에서도 AI 윤리에 대한 논의가 활발하게 이어지고 있다. 참여연대와 성공회대 평화연구소에서는 최근 ‘인공지능과 전쟁의 미래’라는 주제로 토론회를 개최하며 AI의 군사적 활용에 대한 심각성을 강조하고 있다. 경희대 백범석 교수는 AI가 대규모 민간인 사상자를 초래할 결정을 책임지는 것은 도덕적으로 매우 심각한 문제라고 경고하며, 기술 설계부터 폐기까지 모든 과정에서 인권을 우선해야 한다고 주장했다.
AI 기술의 군사적 활용에 따른 윤리적 논란은 앞으로도 계속해서 사회적 관심과 피드백을 이끌어낼 것으로 보인다.






