AI의 잘못된 조언으로 소금 대신 화학 물질을 섭취한 남성, 정신 질환에 걸려

[email protected]



최근 미국에서 인공지능 챗봇의 잘못된 조언으로 인해 한 60대 남성이 소금 대신 브롬화나트륨이라는 화학 성분을 섭취하고 정신 질환을 앓게 되는 사건이 발생했다. 이는 AI가 잘못된 정보를 일반인에게 전달할 수 있는 심각한 위험성을 보여주는 사례로, 국제 의학 저널에 소개되었다.

어떤 일인지 살펴보면, 영양학을 전공한 A씨는 소금을 대체할 조미료를 챗GPT에 문의했다. 챗GPT는 A씨에게 브롬화나트륨을 추천했다. 브롬화나트륨은 주로 수영장 물의 살균제로 사용되며, 과거에는 진정제로도 이용되었던 화학 물질이다. A씨는 이 조언을 신뢰하고 인터넷에서 브롬화나트륨을 구매하여 약 3개월간 소금 대신 섭취하게 되었다.

브롬화나트륨은 백색 결정 형태로 염화나트륨(소금)과 비슷하게 생겼으나, 과다 섭취 시 신체에 축적되어 알레르기 반응이나 정신적인 부작용을 초래할 수 있는 위험성이 있다. 특히, 19세기 미국에서는 정신 질환자 중 8-10%가 브롬 중독 환자였다는 연구 결과도 존재한다. 이러한 배경에도 불구하고 A씨는 이 사실을 모르고 계속 브롬화나트륨을 섭취했다.

결국 A씨는 과대망상증을 경험하게 되었고, 이웃이 자신을 독살하려 한다는 불안 증세로 지역 응급실을 찾았고 브롬 중독 진단을 받았다. 혈액 검사 결과 A씨의 혈중 브롬 수치는 리터당 1700mg로, 일반인의 정상 수치인 0.9-7.3mg에 비해 1000배 이상 높은 수치였다. 의료진은 A씨가 소금의 부작용에 대한 글을 읽고 챗GPT에게 대체품을 문의한 결과, 브롬화나트륨을 섭취하게 되었다고 설명했다.

치료를 받으며 A씨는 소변을 통해 체내 브롬을 제거하는 과정을 거쳤고, 3주 만에 증상이 완화되어 퇴원할 수 있었다. A씨의 사례는 의학 저널 ‘국제 내과 임상 사례 연대기’에 소개되었으며, 저자들은 “AI가 과학과 대중을 연결하는 역할을 할 수 있다는 점은 긍정적이지만, 잘못된 정보를 전파할 위험성 또한 간과해서는 안 된다”고 강조했다.

이번 사건은 AI에 의존하는 소비자들의 경각심을 일깨우는 동시에, 정보의 신뢰성과 출처에 대한 중요성을 되새기는 계기가 되었다. AI가 제공하는 정보는 전문적인 검증을 거치지 않는다. 따라서 개인의 건강과 전반적인 안전에 중대한 영향을 미칠 수 있다. 전문가들은 AI의 조언을 맹신하기보다는, 항상 여러 출처를 통해 정보를 확인하고 필요할 경우 전문가의 조언을 받는 것이 중요하다고 강조하고 있다.

Leave a Comment