챗GPT, 캐나다 학교 총기 난사 사건 사전 경고에도 신고 안 해

[email protected]



인공지능 챗봇 챗GPT와 대화한 후 총기 난사 범행을 저지른 제시 반 루트셀라(18)의 사례가 드러나면서, 오픈AI의 경고 및 신고 시스템이 도마에 오르게 되었다. 이 사건은 브리티시컬럼비아주 텀블러리지에 있는 학교에서 발생했으며, 루트셀라는 작년 6월 며칠간 챗GPT를 활용해 총기 폭력 시나리오를 작성한 것으로 알려졌다.

가해자가 챗GPT와의 대화에서 범행 계획을 서술했음에도 불구하고 오픈AI는 이를 캐나다 당국에 신고하지 않기로 결정했다. 20일(현지 시각) 미국의 월스트리트저널(WSJ)이 보도한 내용에 따르면, 사건 발생 전 오픈AI 직원들은 루트셀라의 게시물을 두고 어떤 조치를 취할지 토론했으나, 결국 신고 기준에 부합하지 않는다고 판단하였다. 오픈AI 대변인은 “타인의 신체에 대한 신뢰할 만한 임박한 위험이 없다고 판단하여 신고를 하지 않았다”고 해명했다.

이번 사건은 총기 난사로 이어져 39세의 여성 교사와 12세의 여학생 3명을 포함한 총 9명의 사망자가 발생했으며, 사건 직후 루트셀라는 자살한 것으로 전해졌다. 또한, 루트셀라는 온라인 게임 플랫폼 로블록스에서 총격 사건을 시뮬레이션 한 비디오 게임을 만들었고, 자신의 SNS에 총기를 쏘는 사진을 올린 것으로 확인되었다.

이 사건은 오픈AI와 같은 인공지능 업체가 사용자 행동을 감시하고, 법 집행 기관에 신고할 수 있는 기준이 무엇인지에 대한 논란을 불러일으키고 있다. 특히, 인공지능 모델이 사용자로부터 발생할 수 있는 잠재적 폭력을 어떻게 판단하고 대응할 것인지를 검토할 필요성이 목소리 높아지고 있다. 오픈AI는 사용자들이 실제로 해를 끼치는 행동을 방지하기 위해 모델을 훈련하고 있지만, 하한선과 기준을 설정하는 데 어려움을 겪고 있다.

이번 사건을 계기로 인공지능의 윤리적 사용과 사회적 책임에 대한 논의가 더욱 활발해질 것으로 예상된다. 오픈AI 측은 사건 이후 피해자들에게 깊은 애도를 표하며, 수사에 협조하고 있는 상황이다. 이와 같은 비극적인 사건들이 다시는 발생하지 않도록 인공지능의 사회적 역할과 책임이 중요하다는 목소리가 더욱 커질 것으로 보인다.

Leave a Comment