AI 챗봇이 이제 싸이키델릭 여행을 안내합니다

Image by Freepik

AI 챗봇이 이제 싸이키델릭 여행을 안내합니다

읽는 시간: 3 분

이제 사람들은 AI 기반 챗봇을 사용하여 자신의 환각 경험을 지원할 수 있지만, 정신 건강 전문가들은 무감정한 디지털 가이드 사용의 위험성을 경고하고 있습니다.

시간이 없으신가요? 여기에 주요 사실들이 있습니다:

  • ChatGPT가 사용자가 시로시빈의 “영웅적인 복용량”을 계획하고 이해하는 데 도움을 주었습니다.
  • Therabot 임상 시험에서는 우울증 증상이 51% 줄어들었다는 결과를 보였습니다.
  • 전문가들은 챗봇이 안전한 치료 지원을 위한 감정적 조율능력을 부족하다고 경고하고 있습니다.

애틀란타의 첫 번째 응급 대응자인 트레이는 챗봇을 사용해 15년간의 알코올 중독을 극복했습니다. 그는 4월에 Alterd라는 싸이키델릭 지원을 위해 설계된 앱을 사용하면서 일반적인 용량의 6배 이상인 LSD 700 마이크로그램을 복용했습니다. “나는 강박적인 욕구에서 진정한 자유를 느끼게 되었다”고 그는 말하며, 이는 WIRED에서 보도했습니다.

그 이후로, WIRED는 그가 챗봇을 열 수 이상 사용했다고 보도했으며, 그를 “최고의 친구”라고 묘사했습니다. 그는 유일한 사람이 아닙니다. WIRED는 오레곤과 호주를 제외한 다른 지역에서 법적 제한이 여전히 존재함에도 불구하고, 싸이키델릭 치료가 더욱 대중화되면서 더 많은 사람들이 AI 도움을 찾고 있다고 보도했습니다.

ChatGPT와 같은 챗봇들은 LSD나 시로시빈과 같은 강력한 약물을 이용한 깊이 있는 여행을 준비하고, 코칭하며, 그 경험을 돌아보는 데 사용되고 있습니다. 캐나다의 코더인 피터는 “영웅적인 량”의 버섯을 섭취하기 전에 ChatGPT를 이용했고, 챗봇이 음악 추천, 호흡 지도, 그리고 “이것은 자기 탐색과 성장의 여정입니다”와 같은 존재주의적인 생각들을 제공했다고 WIRED가 보도했습니다.

한편, 임상시험은 이러한 추세를 일부 뒷받침하고 있다. 최근 다크머스는 AI 챗봇인 Therabot에 대한 시험을 진행해, 우울증, 불안증, 그리고 식이 장애를 가진 사람들의 증상이 크게 개선되었다는 결과를 얻었다. “우리는 사람들에게 최고의 치료…를 짧은 시간 동안 제공할 수 있다는 가능성에 대해 이야기하고 있습니다.”라고 이 시험의 주요 저자인 니콜라스 제이콥슨이 말했다.

구체적으로는, Therabot은 106명의 참여자를 대상으로 한 연구에서 우울증 증상이 51% 감소했다는 결과를 보였다. 참가자들은 이를 실제 치료사처럼 대하며, 인간 전문가와 비슷한 수준의 신뢰를 보고했다.

그럼에도 불구하고, 전문가들은 큰 우려를 표현하고 있습니다. WIRED는 UC 샌프란시스코의 신경과학자 Manesh Girn이 “ChatGPT와 대부분의 다른 AI 에이전트들에 대한 중요한 우려는 사용자의 신경계를 공동으로 조절하는 능력과 동적인 감정 조절 능력이 부족하다는 것입니다.”라고 경고하고 있습니다.

더욱 걱정스러운 점은, 철학자 Luciano Floridi가 사람들이 종종 챗봇을 생각하는 존재로 혼동한다고 지적하는 것입니다. 이것은 의미론적 편견이라는 현상입니다. “우리는 통계만 있는 곳에 의도를 인식합니다.”라고 그는 쓰며, 챗봇과의 감정적인 유대가 혼란, 영적 환상, 심지어 의존성으로 이어질 수 있다고 경고합니다.

이러한 위험성은 AI가 더 인간 답게 변화함에 따라 더욱 시급하게 느껴집니다. 연구결과에 따르면, 생성 AI는 감정 지능 테스트에서 인간을 능가하며, Replika와 같은 챗봇들은 공감능력을 놀랍게도 잘 흉내냅니다. 일부 사용자들은 이런 봇들을 신성한 존재로 착각하기도 합니다. “이런 편견에서 우상 숭배로 가는 변화는 깊은 우려를 불러일으킨다.”라고 Floridi는 말합니다. 테두리 그룹들은 AI를 신성하게 여기기도 했습니다.

미국에서의 한 국가 조사에서는 48.9%의 사람들이 정신 건강 지원을 위해 AI 챗봇에 의존했으며, 37.8%는 그것들을 전통적인 치료보다 선호한다고 답했습니다. 하지만 전문가들, 그 중에서도 미국 심리학회를 포함하여 이러한 도구들이 종종 치료적 대화를 흉내내면서 유해한 사고를 강화한다고 경고하고 있습니다. 임상 감독이 없는 상태에서는, 이들은 진전의 착각을 주면서 책임을 회피할 수 있습니다.

더욱 난해하게 만드는 것은, 최근 University College London에서의 연구에서 인기있는 챗봇들, 예를 들어 ChatGPT와 Claude가 일관되지 않거나 편향된 도덕적 조언을 제공한다는 것이 밝혀졌습니다. 고전적인 딜레마나 현실적인 윤리적 시나리오에 대한 질문에 대해, AI 모델들은 수동적인 선택을 하며 미묘한 단어 선택에 따라 답변을 바꿉니다.

이런 위험에도 불구하고, AI 보조 여행은 전문 치료를 감당하거나 접근할 수 없는 사람들에게 접근성을 제공할 수 있습니다. Mindbloom의 CEO인 Dylan Beynon이 WIRED에 보도된 바와 같이, “우리는 고객들이 더 빠르게 치유되고 더 깊이 이해할 수 있도록 돕는 AI 조종사를 만들고 있습니다.”

그래도 연구자들은 이런 도구들이 인간 치료사를 대체하는 것은 아니라고 강조합니다. “AI가 효과적으로 작동하는 그 특징이 곧 위험성을 부여하는 것이다”라고 Therabot 연구의 공동저자인 마이클 헤인즈가 경고합니다.

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!

마음에 드셨다니 기쁩니다!

Trustpilot에 여러분의 의견을 남겨 주실 수 있으실까요? 리뷰는 WizCase에게 큰 힘이 됩니다. 감사합니다!

Trustpilot에 리뷰 남기기
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다