
앤트로픽(Anthropic)은 최신 인공지능 모델인 Claude Opus 4에 대해 보다 엄격한 인공지능 제어를 활성화했다고 발표했다. 새롭게 적용된 AI 안전 수준 3(ASL-3) 조치는 Claude가 화학, 생물학, 방사선 및 핵(CBRN) 무기의 개발이나 획득에 악용될 위험을 제한하기 위한 것으로, 이번 조치를 통해 안전성을 확보하고자 하는 의지를 내비쳤다.
회사는 블로그 포스트를 통해 이러한 조치가 예방적 성격을 띤 것이라고 설명하며, 현재까지 Opus 4의 위험 기준에 도달했는지 여부에 대해서는 판단하지 않았다고 밝혔다. 즉, 이번 조치를 통해 보다 안전한 AI 환경을 조성하고자 하는 것이다. 앤트로픽은 아마존의 투자를 받는 기업으로, 지난 목요일 Claude Opus 4와 함께 Claude Sonnet 4를 발표하면서 이 두 모델의 능력을 강조했다. 두 모델은 “수천 개의 데이터 소스를 분석하고, 장기적인 작업을 실행하며, 인간과 유사한 품질의 콘텐츠를 작성하고, 복잡한 작업을 수행할 수 있는 능력을 갖고 있다”는 설명을 덧붙였다.
특히, Sonnet 4에 대해서는 이러한 엄격한 제어가 필요하지 않다고 언급한 앤트로픽은 Opus 4의 진보된 기술력이 CBRN 무기에 대한 안전 우려를 일으킬 수 있음을 인식하고 선제적인 조치를 취한 것으로 보인다.
AI 기술의 발전 속도가 빨라짐에 따라, 이러한 안전 조치는 더욱 중요해지고 있으며, 다양한 기업들이 AI 시스템의 악용 가능성을 차단하기 위해 지속적으로 노력하는 모습이 뚜렷해지고 있다. 해당 조치는 국제 사회에서의 AI 사용에 대한 윤리적 논의와 규제가 더욱 강화될 것이라는 예측과도 연결된다. 이번 조치가 AI 개발 및 배포에 있어 다른 기업들에게도 경각심을 불러일으킬 것으로 예상된다.
앤트로픽의 Claude 모델의 출시는 단순히 기술적 성과에 그치지 않고, 동시에 사회적 책임을 다하려는 노력의 일환으로 평가된다. AI가 사회에 미치는 영향력이 커져감에 따라, 기업들은 보다 강력한 안전 장치를 갖추는 것이 필수적임을 인식하게 되었고, 이번 앤트로픽의 결정은 그의 좋은 예로 남을 것이다.
