앤트로픽, AI 모델의 보안 강화 방안 발표

[email protected]





앤트로픽이 자사의 인공지능(AI) 기술에 대한 “책임 있는 확장” 정책에 대한 업데이트를 발표하며, 보안 강화 방안을 세부적으로 설명하였다. 이번 발표에서 앤트로픽은 특정 모델의 안전성 수준을 정의하고, 이들이 추가적인 보안 보호 조치를 필요로 하는지에 대한 기준을 명시했다.

특히, 앤트로픽은 AI 모델을 스트레스 테스트할 때 해당 모델이 중간 규모의 국가 프로그램이 화학 및 생물학 무기를 개발하는 데 도움을 줄 가능성이 있다고 판단할 경우, 해당 기술을 출시하기 전에 새로운 보안 보호 조치를 시행할 것이라고 밝혔다. 이와 유사하게, AI 모델이 회사의 입문 연구원의 역할을 완전히 자동화하거나 과도한 속도로 확장될 가능성이 있는 경우에도 이러한 조치를 취할 예정이다.

앤트로픽은 최근 615억 달러의 가치로 자금 조달을 마무리했으며, 이로써 자회사들 중 가장 높은 가치를 보유한 AI 스타트업 중 하나가 되었다. 하지만 이는 오픈AI의 3000억 달러 가치와 비교하면 여전히 적은 수치로 여겨진다. 오픈AI는 최근 400억 달러 규모의 자금 조달 라운드를 완료했다고 발표했다.

AI 생성 시장은 향후 10년 내에 1조 달러 이상의 수익을 초과할 것으로 예상된다. 이에 따라, 구글, 아마존, 마이크로소프트 등 기술 대기업들은 새로운 제품과 기능을 발표하기 위해 경쟁하고 있으며, 중국의 AI 모델인 DeepSeek가 미국에서 화제를 모은 사건은 이러한 경쟁의 심각성을 더욱 부각시켰다.

앤트로픽은 지난 10월 발표한 이전 버전의 “책임 있는 확장” 정책에서 물리적 사무실을 통해 숨겨진 장비를 수색하겠다는 계획을 다시 한번 확인했다. 아울러, 경영 리스크 위원회를 구성하고 내부 보안 팀을 강화할 예정이라고 밝혔다. 앤트로픽은 이러한 두 개의 그룹이 이미 구축되었다고 전했다.

또한, 앤트로픽은 “물리적” 안전 프로세스를 도입하겠다고 발표했으며, 이는 조직을 감시하는 장치의 식별과 발견을 위한 기술적 감시 반조치를 포함하고 있다. 이러한 수색들은 “첨단 탐지 장비와 기술”을 이용하여 진행되며, 외부 침입자를 찾아내는 것을 목표로 하고 있다.

Leave a Comment