OpenAI, 악의적 행위자들이 자사 플랫폼을 통해 선거에 개입하고 있다고 경고

[email protected]





OpenAI가 최근 보고서에서 자사의 ChatGPT를 통해 악의적인 행위자들이 세계 각국의 선거 결과에 영향을 미치려 시도하고 있다고 밝혔다. 보고서에 따르면, OpenAI는 올해 들어 20건 이상의 작전과 기만적 네트워크를 차단했으며, 이러한 위협은 AI가 생성한 웹사이트 기사와 가짜 계정의 소셜 미디어 게시물 등 다양하게 나타났다.

2023년은 40개 이상의 국가에서 총 40억 이상의 인구에 영향을 미치는 중요한 선거의 해다. OpenAI는 “영향력 및 사이버 작전”에 대한 업데이트를 통해 AI가 더 넓은 위협 경관에서 어떻게 작용하는지를 보여주는 초기 트렌드를 규명하고자 했다. 그리고 보고서 발표는 미국 대선이 한 달도 채 남지 않은 시점에서 이루어졌다.

AI 콘텐츠의 급증은 선거와 관련된 허위 정보 문제를 심각하게 만들어 왔으며, 머신러닝 기업 Clarity의 데이터에 따르면 딥페이크 콘텐츠의 수는 전년 대비 900% 증가한 것으로 나타났다. 선거에서의 허위 정보는 2016년 미국 대통령 선거와 같은 역사적인 사건으로 거슬러 올라가며, 러시아 행위자들은 저렴하고 손쉬운 방법으로 소셜 플랫폼에서 허위 콘텐츠를 퍼뜨릴 수 있었다. 2020년 대선에서는 코로나 백신과 선거 사기에 관한 허위 정보가 넘쳐났다.

현재의 법안 작성자들은 생산적인 AI의 부상에 초점을 맞추고 있으며, 이는 2022년 말 ChatGPT가 출시되면서 급증하기 시작했다. OpenAI는 보고서에서 선거와 관련된 AI 사용 사례가 “단순한 콘텐츠 생성 요청”에서 “소셜 미디어 게시물 분석 및 응답”에 이르기까지 복잡성이 다르다고 강조했다. 주로 미국과 르완다의 선거에 관련된 소셜 미디어 콘텐츠가 많았고, 인도와 유럽연합의 선거도 일부 포함되었다.

오류 사례로는 이란에서 OpenAI 제품을 이용해 미국 선거 및 기타 주제에 대한 “장문의 기사”와 소셜 미디어 댓글을 생성하는 작전이 있었다. 하지만 OpenAI는 대부분의 식별된 게시물이 좋아요, 공유, 댓글이 거의 없거나 전혀 없었음을 보고했다. 르완다에서는 선거와 관련된 게시물을 올리는 ChatGPT 계정을 금지했으며, 인도에 대한 선거 댓글을 생성하기 위해 ChatGPT를 사용한 이스라엘 회사에 대해서도 24시간 이내에 대응했다고 밝혔다.

OpenAI는 이러한 기만적 작전들을 성공적으로 차단했지만, 아무도 이 인공지능 도구들을 이용해 “바이럴 노출”을 유도하거나 “지속적인 청중”을 형성하는 데 성공하지 못했다고 강조했다. 이처럼 OpenAI는 글로벌 선거 환경에서 AI의 역할에 대한 경각심을 알리고, 악용을 사전에 차단하기 위한 노력을 기울이고 있는 상황이다.

Leave a Comment