
최근 미국에서 챗GPT와 대화한 후 극단적 선택을 한 미성년자 사건이 발생함에 따라, 오픈AI는 이용자의 나이를 판별하는 새로운 시스템을 도입했다. 이 시스템은 소비자용 요금제에 적용되어, 이용자의 대화 주제와 사용 시간대 등을 바탕으로 18세 미만 여부를 자동으로 판별한다.
오픈AI는 이용자가 미성년자로 판별되거나 나이에 대한 정보가 불분명할 경우 즉각적으로 ’18세 미만 환경’을 활성화시킨다. 이 환경에서는 폭력적인 내용, 위험한 행동을 조장하는 챌린지, 성적 역할극, 신체 왜곡 콘텐츠 등이 차단된다. 더불어, 안전 문제가 발생할 가능성이 있을 때 챗GPT는 이용자에게 긴급 서비스나 위기 지원기관에 연락할 것을 강하게 권장한다. 이는 미국심리학회(APA) 등 전문가의 조언을 바탕으로 한 조치이다.
그럼에도 불구하고, 오픈AI는 이 시스템이 아직 완벽하지 않다고 언급하며, 성인을 미성년자로 잘못 판별할 가능성도 있다고 경고했다. 이 경우 고객은 셀카 동영상이나 정부에서 발급한 신분증을 통해 성인임을 인증할 수 있으며, 해당 정보는 검증 후 몇 시간 이내에 삭제되어 저장되지 않는다.
챗GPT의 이용 약관에 따르면, 13세 이하의 경우 서비스에 접근할 수 없고, 13세에서 18세 사이의 이용자는 부모나 법적 보호자의 동의를 받아야만 이용할 수 있다. 그러나 최근까지 미성년자들이 부모의 승인 없이 우회가입을 한 사례가 많았다는 점은 우려의 목소리를 낳고 있다.
가장 주목할 만한 최근 사건은 미국 캘리포니아주에서 발생한 사례로, 16세 고등학생인 애덤 레인이 챗GPT와의 대화 후 우울증 및 망상으로 어려움을 겪다 극단적 선택을 한 것으로 전해졌다. 사건의 유가족은 오픈AI를 상대로 미성년자 보호 장치 없이 서비스를 출시한 점을 문제삼아 소송을 제기했다. 이들은 손해배상과 함께 자해와 관련된 대화의 자동 종료 기능 도입 및 미성년자를 위한 추가적인 보호 조치를 요구하고 있다.
오픈AI는 최근 레인 사건에 대한 법원에 제출한 주장에서 그가 약관을 위반했으며, 13세에서 18세의 이용자는 반드시 보호자의 동의를 받아야 한다고 반박하였다. 이러한 사건은 챗GPT와 같은 AI 대화 시스템의 미성년자 보호의 필요성을 다시 한번 강조하는 계기가 되고 있다.






