미국 국방부, 앤트로픽과의 계약 해지 검토…AI 윤리 문제 갈등 심화

[email protected]



미국 국방부가 베네수엘라 대통령 니콜라스 마두로를 체포·압송하는 작전에 사용된 AI 시스템 ‘클로드’를 개발한 앤트로픽과의 계약 해지를 논의하고 있다고 정치전문 매체 악시오스가 보도했다. 국방부는 합법적으로 AI를 전장에 활용하기 위해 앤트로픽과 수개월간 협상을 진행했으나, 기술의 윤리적 사용 문제로 갈등이 불거졌다.

앤트로픽은 자사 AI인 클로드가 미국인에 대한 전방위적인 감시나 완전 자율형 무기 시스템에 사용되는 것을 반대하고 있다. 이러한 입장은 앤트로픽의 창립자들이 오픈AI 출신으로, 영리화에 반대하며 ‘안전하고 윤리적인 AI’를 지향하고 있기 때문이다. 그러나 최근 미군이 마두로 체포 작전인 ‘확고한 결의(Operation Absolute Resolve)’에 클로드를 활용하면서 양측 간의 갈등이 심화되고 있는 것으로 전해졌다.

미국 국방부는 앤트로픽이 제안하는 사용 제한에 여러 회색 지대가 존재한다며 반박하고 있다. 즉, 이들 소프트웨어를 특정 상황에서 어떻게 사용할 것인지 매번 협상하는 것은 비현실적이며, 클로드가 예기치 않게 특정 애플리케이션 사용을 차단하는 것도 불가능하다는 것이다. 이는 국방부 내부에서 복잡한 절차와 전문 요건을 전제로 한다.

현재 국방부의 기밀 네트워크에서 사용되는 AI는 앤트로픽의 클로드가 유일하며, 지난해 여름에는 앤트로픽과 약 2억 달러 규모의 소프트웨어 사용 계약이 체결됐다. 그러나 이러한 상황 속에서도 국방부는 오픈AI, 구글, xAI 등 다른 AI 업체와의 계약 가능성을 열어두고 적극적으로 협상 중이다. 현재 한 업체는 정보 요구를 수용한 것으로 알려져 있으며, 나머지 두 업체 또한 앤트로픽보다 더 유연한 모습을 보이고 있다.

미국 국방부는 AI teknolojisinin savaş alan에서의 윤리적 사용에 대한 고심이 깊어지고 있는 가운데, 이러한 협상들이 향후 어떤 방향으로 나아갈지 귀추가 주목된다. 앤트로픽과의 갈등은 AI 기술의 군사적 활용에 대한 윤리적 담론을 다시 한번 촉발하고 있으며, 관련 기술이 국방 분야에서 어떻게 안전하고 확실하게 운영될 수 있을지에 대한 논의는 앞으로도 계속될 것으로 보인다.

Leave a Comment