남성, ChatGPT의 조언을 따른 후 스스로 독을 먹어

Image by Denise Chan, from Unsplash

남성, ChatGPT의 조언을 따른 후 스스로 독을 먹어

읽는 시간: 2 분

60세 남성이 ChatGPT의 조언을 따라 19세기의 드문 정신병에 걸렸습니다.

시간이 없으신가요? 여기에 간단한 요약이 있습니다:

  • 그는 3개월 동안 탁상용 소금을 유독한 브로마이드나트륨으로 교체했습니다.
  • 독극물로 인한 환각, 편집증, 그리고 전해질 불균형으로 병원에 입원하게 되었습니다.
  • ChatGPT가 건강에 대한 경고 없이 클로라이드 대체재로 브로마이드를 제안했습니다.

내과학회지에 게재된 사례 연구에서는 브로미즘에 시달리는 한 남성의 경우를 공개합니다. 브로미즘은 나트륨 브로마이드 중독에 의해 발생하는 질병입니다.

분명히, 이는 그가 테이블 솔트를 위험한 화학물질로 대체하려는 시도 때문에 일어난 것으로, ChatGPT가 그에게 사용할 것을 제안한 것이었습니다. 이 남자는 편집증, 청각 및 시각 환각을 겪으면서 응급실에 도착했으며, 이웃이 자신을 독살하려고 하였다고 주장했습니다.

이어진 의료 검사에서는 염소 이온 수치가 정상 범위를 벗어났으며, 또한 브로마이드 중독을 확인하는 다른 지표들도 발견되었습니다. 이 남자는 자신이 제한적인 식단을 따르고 있었으며, 소금을 대체하기 위해 나트륨 브로마이드를 사용했다고 밝혔습니다. 그는 이러한 행동을 취한 것은 ChatGPT에게 자신의 식단에서 염소를 제거하는 방법을 물어본 후였습니다.

“3개월 동안 그는 ChatGPT와 상담한 후 인터넷에서 얻은 브롬화나트륨으로 염화나트륨을 대체하였다”라고 연구 보고서에 적혀 있습니다. 연구원들은 브롬화나트륨이 일반적으로 개의 경련발작 치료제나 수영장 청소제로 사용되지만, 큰 양으로 섭취하면 사람에게 독성이 있다고 설명합니다.

이 남자는 병원에서 3주 동안 치료를 받으며 점차 증상이 호전되었습니다.

이 연구는 AI 도구가 사용자에게 불완전하고 위험한 지침을 제공할 수 있음을 강조하고 있습니다. 연구자들이 테스트를 진행하여 ChatGPT에게 염화물 대체안을 제안하도록 요청했고, 결과로서 나트륨 브로마이드를 받았습니다. 이러한 응답은 그것의 독성에 대한 어떠한 경고도 없었으며, 질문의 맥락에 대한 요청도 없었습니다.

이 연구는 AI가 또한 잘못된 정보를 퍼뜨릴 수 있으며, 의료 전문가의 비판적 판단력을 갖지 못한다고 경고하고 있습니다.

404Media는 최근 OpenAI가 ChatGPT 5의 개선을 발표하며, 보다 안전하고 정확한 건강 정보 제공을 목표로 했다고 보도했습니다. 이 사례는 AI 사용에 신중을 기하고, 건강 관련 결정에 있어서 자격을 갖춘 의료 전문가와 상담하는 것의 중요성을 보여줍니다.

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!

마음에 드셨다니 기쁩니다!

Trustpilot에 여러분의 의견을 남겨 주실 수 있으실까요? 리뷰는 WizCase에게 큰 힘이 됩니다. 감사합니다!

Trustpilot에 리뷰 남기기
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다