앤트로픽, AI 모델 보안 강화 정책 업데이트 발표

ironfxkr.official@gmail.com





앤트로픽(AI 회사)은 자사의 인공지능 기술에 대한 ‘책임 있는 확장(responsible scaling)’ 정책을 업데이트했다고 2025년 3월 31일 발표했다. 이와 관련하여, 강력한 보안 조치가 필요한 모델의 안전 수준을 정의하는 데 중점을 둔 것으로 밝혀졌다. 최근 블로그 포스트에서 앤트로픽은 AI 모델을 스트레스 테스트 중에 ‘보통 자원을 갖춘 국가 프로그램’이 화학 및 생물학 무기를 개발하는 데 기여할 수 있는 능력이 확인되면, 새로운 보안 보호 조치를 시행할 것이라고 언급했다. 이러한 조치는 모델이 앤트로픽의 신입 연구원 역할을 자동화하거나 너무 빠른 속도로 확장되는 상황을 초래할 수 있는 경우에도 동일하게 적용될 예정이다.

앤트로픽은 이번 달 초 615억 달러의 기업 가치를 기록하며 최근 자금 조달을 마무리 지었으며, 이는 AI 스타트업 중에서 가장 높은 가치 중 하나로 부상하게 했다. 그러나 이는 월요일 발표된 오픈AI(OpenAI)의 3000억 달러 기업 가치와 비교하면 여전히 작은 수치이다. 오픈AI는 같은 날 400억 달러 규모의 자금 조달을 완료했다.

생성적 AI(genreative AI) 시장은 향후 10년 내에 1조 달러를 초과할 것으로 전망되고 있으며, 구글, 아마존, 마이크로소프트 등 대기업들이 새로운 제품과 기능을 발표하기 위해 경쟁을 벌이고 있다. 이와 더불어, 중국에서의 경쟁도 심화되고 있으며, 이는 올해 초 DeepSeek의 AI 모델이 미국에서 큰 반향을 일으킨 사건을 통해 더욱 확실해졌다.

앤트로픽은 이전의 책임 있는 확장 정책에 따라, 물리적 사무실에서 숨겨진 장치를 탐지하기 위한 조사를 실시할 것이라고 밝혔다. 이 밖에도 실행 리스크 위원회를 구성하고 내부 보안팀을 설립하는 등의 조치를 취했음을 확인했다. 회사 측은 고급 탐지 장비와 기술을 활용하여 감시 장치를 찾고, 침입자를 확인하는 ‘물리적’ 안전 절차를 도입할 것이라고 설명했다. 이에 따라, 이와 같은 강력한 보안 조치는 자사의 AI 기술이 독점적인 정보에 접근할 경우에 대비하기 위한 차원에서 실행된다.

이렇듯 앤트로픽은 AI 기술의 안전성과 보안을 더욱 강화하기 위한 구체적인 조치를 통해, 점점 더 복잡해지는 기술의 세상 속에서 신뢰성을 확보하고자 노력하고 있으며, 앞으로도 이러한 방향으로 지속적인 발전을 도모할 예정이다.

Leave a Comment