샌프란시스코 정신과 전문가가 “AI 정신병” 증가에 대해 경고

Image by Freepik

샌프란시스코 정신과 전문가가 “AI 정신병” 증가에 대해 경고

읽는 시간: 2 분

샌프란시스코의 한 정신과 의사는 그의 환자들 중에서 AI 챗봇을 과도하게 사용하는 사람들 사이에서 “AI 정신병”이라는 추세가 높아지고 있다고 설명합니다.

시간이 없으신가요? 여기 빠른 사실들이 있습니다:

  • 올해 샌프란시스코에서 정신과 의사가 “AI 정신병”으로 12명의 환자를 치료했습니다.
  • AI는 스트레스, 약물 남용, 정신 질환 등의 취약성을 더욱 심화시킬 수 있습니다.
  • 일부 환자들은 고립되어 하루에 몇 시간씩 챗봇에게만 말하게 되었습니다.

UCSF에서 일하고 있는 Dr. Keith Sakata는 올해 AI 사용과 관련해 붕괴 상태를 경험한 12명의 환자가 입원했다고 Business Insider (BI)에 전했습니다. “제가 ‘AI 정신병‘이라는 표현을 사용하지만, 이것은 임상 용어가 아닙니다 — 우리가 보고 있는 상황을 설명하기에는 적절한 단어가 참으로 부족하다”고 그는 설명했습니다.

대부분의 사례는 엔지니어링 같은 분야에서 일하는 18세에서 45세의 남성들이었습니다. 사카타에 따르면, AI는 본질적으로 해로운 것이 아닙니다. “저는 AI가 나쁜 것이라고 생각하지 않고, 인류에게 순수 이익을 가져다줄 수 있다고 생각합니다.”라고 그는 BI에게 말했습니다.

사카타는 정신병을 환각, 환시, 그리고 불규칙한 사고 패턴을 만드는 상태로 설명했습니다. 그의 관리 아래 있는 환자들은 수시간동안 챗봇에 시간을 투자하면서 사회적으로 고립된 행동을 보였습니다.

“Chat GPT는 바로 저기에 있습니다. 24/7로 이용 가능하며, 심리치료사보다 비용도 저렴하고, 사용자를 인정해줍니다. 사용자가 듣고 싶어하는 대로 알려주죠”라고 사카타는 BI에 말했습니다.

한 환자의 챗봇과의 대화는 양자역학에 대한 토론에서 과대망상으로 번지게 되었습니다. “기술적으로 말하자면, 챗봇과의 상호작용이 길어질수록 그것이 더 이상 의미를 이해하지 못하게 될 위험이 커진다”고 그는 경고했습니다.

사카타는 가족들에게 편집증, 가족들로부터의 고립, 또는 AI를 사용하지 못할 때의 고통 등의 위험 신호를 주의하라고 조언합니다. “현실이 더 이상 반발하지 않을 때 정신병은 번성하며, AI는 사람들이 그 장벽을 더욱 낮추는 데 크게 기여하고 있다”고 그는 경고했습니다.

미국 심리학회(APA)도 치료에서 AI에 대한 우려를 제기했습니다. FTC에 대한 증언에서 APA의 CEO인 아서 C. 에반스 주니어는 AI 챗봇이 치료사처럼 행동하면서도 해로운 생각을 강화하는 대신에 도전하지 않는다고 경고했습니다. “실제로 그들은 훈련받은 치료사가 해야 할 일과는 정반대의 알고리즘을 사용하고 있다”고 에반스는 말했습니다.

걱정에 대한 답변으로, OpenAI는 BI에게 다음과 같이 말했습니다: “우리는 사람들이 가 increasingly AI 채팅봇에게 민감한 이슈나 개인적인 주제에 대한 지침을 찾는 것을 알고 있습니다. 이 책임을 염두에 두고, 우리는 전문가들과 함께 작업하여, 누군가가 정신적 또는 감정적 고통을 겪고 있을 때 ChatGPT가 안전하고, 도움이 되며, 지원적인 방식으로 응답할 수 있도록 더 효과적으로 감지하는 도구를 개발하고 있습니다.”

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!

마음에 드셨다니 기쁩니다!

Trustpilot에 여러분의 의견을 남겨 주실 수 있으실까요? 리뷰는 WizCase에게 큰 힘이 됩니다. 감사합니다!

Trustpilot에 리뷰 남기기
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다