딜로이트, AI 인용으로 인한 보고서 오류 논란

[email protected]



글로벌 회계 및 컨설팅 기업 딜로이트가 호주 정부의 의뢰로 작성한 보고서에서 인공지능(AI) 기술을 통해 생성된 허위 판결문이 인용된 사실이 밝혀져 논란이 일고 있다. 이 사건은 AI 기술이 가져올 수 있는 신뢰성 문제를 여실히 드러내며, 해당 보고서가 작성된 과정에서의 윤리적 기준 또한 도마 위에 올리게 되었다.

지난 7일(현지시간) 영국의 파이낸셜타임스와 가디언 등은 호주 고용노동부가 딜로이트에 제출된 보고서에서 여러 인용 및 참고문헌에서 오류가 발생했음을 확인했다고 보도했다. 이를 통해 딜로이트 측은 이미 지불한 보고서 작성 용역비 일부를 환불하기로 결정했다고 밝혔다.

호주 고용노동부는 지난해 12월, 구직자에게 불이익을 주는 복지 시스템의 문제를 평가하는 보고서를 딜로이트에 의뢰한 바 있다. 보고서의 작성 용역비는 약 43만9000 호주달러(약 4억1000만원)였으나, 7월에 발표된 보고서에서 다수의 오류와 허위 인용이 발견되면서 학계와 언론의 비판이 거세졌다. 특히, 보고서에서는 실제로 존재하지 않는 가짜 자료와 조작된 법원 판결문을 인용했다는 주장이 제기되었다.

딜로이트는 이 문제를 해결하기 위해, 참고문헌의 141개 출처 중 14개의 오류를 수정하고, 본문에 포함된 조작된 인용문을 삭제한 수정본을 제출했다. 수정본에 따르면, 딜로이트는 보고서 작성 과정에서 오픈AI의 대규모 언어 모델(GPT-4o)을 일부 활용한 사실을 인정하였다. 그러나 수정본을 제출한 후에도 딜로이트는 “보고서의 실질적 내용, 결과, 권고 사항에는 영향을 미치지 않는다”고 명확히 밝혔다. 이에 대해 호주 정부는 보고서의 기본 내용과 권고 사항이 변경되지 않았다고 설명하며, 용역비 환불의 세부 내용은 거래 완료 후 공개할 것이라고 전했다.

이번 사건은 AI 기술 사용의 위험성을 다시 한번 일깨워주는 사례로 여겨진다. 많은 전문가들은 AI가 생성하는 정보의 신뢰성에 대해 의문을 제기하고 있으며, 특히 시드니대 로스쿨의 크리스토퍼 러지 교수는 “보고서의 본질적 결함으로 인해 신뢰할 수 없다”고 말했다. 또한, 호주 상원의원 데버라 오닐은 “기업들과 계약을 체결하기 전에 어떤 업무가 수행되고 있는지, 전문성과 AI 사용에 대한 검증이 갖춰졌는지 철저히 확인해야 한다”고 경고했다. 그는 대형 컨설팅 대신 저렴하게 제공되는 챗GPT 같은 도구를 사용하는 것이 더 나은 선택일 수 있다고 언급하였다.

이러한 사건은 기업의 윤리적 책임 및 AI 활용에 대한 투명성의 중요성을 다시금 상기시킨다. 정보의 신뢰성과 윤리적 기준은 점점 더 중요해지고 있으며, 기업과 정부는 이를 고려하여 다양한 방안을 모색해야 할 때가 아닌가 싶다.

Leave a Comment