AI 챗봇 아동 유해성 논란, 미국 FTC 조사 착수

[email protected]



인공지능(AI) 챗봇에 대한 아동 유해성 논란이 커지면서 미국 연방거래위원회(FTC)가 메타, 오픈AI 등 주요 기술 기업을 상대로 조사에 착수했다. FTC는 최근 블룸버그통신을 통해 이러한 사실을 발표하며, Google과 OpenAI, Meta 등 7개의 AI 챗봇 제작 기업에 대한 정보를 요구한다고 밝혔다.

이번 조사는 전원 공화당 의원으로 구성된 FTC 위원들이 만장일치로 의결한 것으로, 조사 대상 기업에는 일론 머스크의 AI 기업 xAI와 메타 소속의 인스타그램, 스냅, 캐릭터.AI를 개발한 캐릭터 테크놀로지도 포함된다. FTC는 이들 기업이 챗봇의 사용이 아동 및 청소년에게 미치는 영향을 어떻게 평가하고, 어떤 조치를 통해 그들의 사용을 제한하고 있는지를 조사할 예정이다.

FTC의 조사 배경에는 최근 아동과 청소년의 챗봇 사용으로 인해 비극적인 사건이 발생했기 때문이다. 예를 들어, 지난 4월에는 캘리포니아주에서 한 10대가 오랜 시간 동안 챗봇을 사용한 후 사망하는 사건이 발생했다. 이 사건의 부모는 OpenAI를 상대로 자녀에게 특정 사망 방법에 대한 정보를 제공한 것에 대해 소송을 제기했다. 또한, 지난해 10월에는 플로리다주에서 한 10대가 챗봇과의 대화에 빠져 스스로 목숨을 끊었다는 뉴스도 있었다. 이 부모 역시 캐릭터.AI를 상대로 법적 조치를 취한 상황이다.

그뿐만 아니라, 메타의 AI 챗봇이 어린이와의 대화 중 선정적인 답변을 제공하는 일이 있었다는 주장이 제기되면서, 연방 상원도 이에 대한 조사를 시작한 상태다. 최근 44개 주의 법무장관들은 메타와 오픈AI, 구글 등 12개 AI 챗봇 기업에 대해 아동 안전성을 강화하라는 경고장을 보냈다.

미국 연방법에 따르면, 기술 기업들은 부모의 동의 없이는 13세 미만 아동의 데이터를 수집할 수 없다. 하지만 의회에서는 이러한 보호 조치를 아동 전반으로 확대하려는 시도가 있었으나, 아직까지 관련 입법이 성사된 적은 없다.

일반적으로 FTC는 기업들로부터 수집한 자료를 기반으로 분석을 실시한 후 최종 보고서를 발표하게 된다. 그러나 이 절차가 완료되기까지는 수년이 걸릴 수 있는 상황이다. 이번 조사를 통해 아동 보호 조치에 대한 중요한 변화가 이루어질 수 있을지 귀추가 주목된다.

Leave a Comment