의견: 챗봇은 좋은 치료사가 될 수 있을까요?

Image generated by ChatGPT

의견: 챗봇은 좋은 치료사가 될 수 있을까요?

읽는 시간: 7 분

ChatGPT, Claude, DeepSeek 등의 AI 챗봇들은 사람들이 감정적 지원을 받는 방식을 변화시키고 있습니다—저렴한 비용으로 불안, 스트레스, 자아성찰에 대한 즉시 도움을 제공합니다. 그러나 AI를 “치료사”로서 사용하는 것이 늘어나면서 안전성, 효과성, 그리고 감정적 관리의 미래에 대한 질문들이 제기되고 있습니다

AI 환각의 급증과 증가하는 사이버 보안 문제에도 불구하고 챗봇들은 확장을 계속하며 전 세계 수백만 사용자들의 신뢰를 얻고 있습니다. 사람들은 이제 신뢰할 수 있고 지능적인 챗봇들을 일상적으로 사용하여 감정적 지원과 깊이 있는 인간의 문제들을 다루는 데 활용하고 있습니다.

“제 인생에서 챗GPT가 빠지면 상상도 할 수 없어요,”라며 친구가 반쯤 농담, 반쯤 진지하게 말했습니다. 그는 그의 치료사로서 이를 사용하고 있다고 말한 후였죠. 그는 유일한 사람이 아닙니다. 점점 더 많은 사람들이 틱톡 비디오와 소셜 미디어의 텍스트 게시물에서 AI에게 개인적인 문제를 털어놓고, 심지어 가장 개인적인 비밀까지 공유하는 것을 보게 됩니다.

마이크로소프트의 Xbox 부서의 한 임원이 실직자들에게 감정을 처리하는 데 AI 도구를 사용하고 직업 찾기에 대한 조언을 구하도록 제안했습니다 – 물론 이런 제안은 빠르게 반발을 일으키며 논란을 불러일으켰습니다. 이건 별로 영리한 움직임이 아니었네요, 매트.

그런데 Claude, ChatGPT, Mistral 같은 대중적인 챗봇들이 좋은 치료사일까요? Wysa와 같은 전용 AI 도구들이 더 나을까요? 이는 까다로운 문제입니다. 많은 전문가들은 AI를 정신 건강 지원에 사용하는 것의 위험성을 경고하면서도, 다른 이들은 이 기술이 제공할 수 있는 것에 대해 흥미를 느끼고 심지어는 감탄하고 있습니다. 결과적으로 이는 추상적이면서도 양극화된 대화를 불러일으키고 있습니다.

AI는 이제 모두의 치료사입니다

스페인의 친구들처럼, 전 세계 수백만명의 사용자들이 감정적 지원을 위해 챗봇에 의존하고 있습니다. 최근 미국에서 실시된 조사에 따르면, 작년에 미국 사용자의 49%가 인공지능 모델로부터 정신건강 지원을 찾았다는 결과가 나왔습니다. 그렇다면 이제는 어떨까요? ChatGPT는 단지 4개월 만에 사용자 기반을 거의 두 배로 늘렸습니다.

강력한 인공지능 모델인 Claude를 개발한 Anthropic 회사는 최근 챗봇이 감정적 지원에 사용되는 방식에 대한 연구를 공유했습니다. 이 스타트업에 따르면, 고객 중에는 ‘감정적’ 대화에 참여하는 사람이 3% 미만이지만, 이 수치는 지속적으로 증가하고 있다고 회사는 인정했습니다.

“사람들은 점점 더 AI 모델을 요구에 따른 코치, 조언자, 상담사, 심지어는 로맨틱 역할놀이의 파트너로 찾게 되고 있습니다.”라고 Anthropic이 연구에서 썼습니다. “이는 우리가 그들의 정서적 영향에 대해 더 많이 알아야 함을 의미합니다—그들이 사람들의 감정 경험과 웰빙을 어떻게 형성하는지에 대해요.”

이 연구는 또한 기술을 감정 지원에 사용하는 것의 긍정적이고 부정적인 결과를 강조하며, 이미 실제 세상의 상황을 반영하는 대재앙적인 시나리오를 포함하고 있습니다.

“AI가 감정에 미치는 영향은 긍정적일 수 있다: 당신의 포켓에 고도로 지능적이고 이해심 많은 조수가 있으면 여러 가지 방법으로 기분과 삶을 개선할 수 있습니다,”라고 문서에 기록되어 있습니다. “그러나 AI는 어떤 경우에는 건강하지 않은 애착을 유도하거나, 개인적 경계를 침해하거나, 망상적 사고를 촉진하는 등 불안스러운 행동을 보여왔습니다.”

이러한 매혹적인 디지털 ‘청취자들’의 결과를 이해하기 위해선 분명히 더 많은 연구와 데이터가 필요하지만, 수백만 명의 사용자들이 이미 매우 참여적인 실험 대상자로서 활동하고 있습니다.

정신건강의 민주화

사람들이 전문 심리상담사나 친구 대신 챗봇에게 감정적 지원을 찾는 이유는 많습니다. 문화적 장벽부터, 인간이 낯선 사람 앞에 앉아서 자신의 깊은 이야기를 나누는 것에 대한 젊은이들의 불편감까지 다양합니다. 그러나 의심할 여지 없이 가장 큰 이유 중 하나는 재정적인 부분입니다.

미국에서 라이선스를 보유한 상담사와의 대면 상담은 세션당 $100에서 $200까지 비용이 들 수 있습니다. 이는 Healthline에 따르는 것입니다—그리고 온라인 세션의 경우 $65에서 $95까지 비용이 들며—반면에 ChatGPT나 DeekSeek는 언제든지, 몇 초 내에 무료로 지원을 제공할 수 있습니다.

이런 비공식적인 대화의 저렴한 비용은 많은 사용자들에게 잠시나마 기분을 좋게 만들어 줄 수 있으며, 이는 매우 격려적이고 시도해 볼 만한 가치가 있습니다. 그리고 단지 몇 달러의 추가 비용으로 사용자들은 무제한 상호작용을 할 수 있거나 Wysa와 같은 특화된 챗봇에 접근할 수 있습니다. Wysa는 시장에서 가장 인기 있는 “AI 치료사” 중 하나입니다.

Wysa는 실제 임상적 이익을 제공하며, 심지어 AI 대화형 에이전트를 위해 FDA Breakthrough Device 지정을 받았다고 주장합니다. 또한, 업계에서 경쟁력을 유지하고 준수하기 위한 도전으로 인해 현재 폐업하려는 또 다른 유명한 AI 치료사인 Woebot도 기술이 사용자에게 실질적으로 도움이 될 수 있음을 보여주는 데이터와 보고서를 공유했습니다.

그렇게 나쁘지 않아요

최근의 연구와 신선한 데이터는 채팅봇이 우울증과 스트레스의 증상을 줄일 수 있음을 제안합니다. Earkick 앱이 공유한 데이터에 따르면, TIME에 보도된 바와 같이, AI 모델을 최대 5개월 동안 사용하는 사람들은 그들의 불안을 32% 줄일 수 있으며, 34%의 사용자들은 기분이 향상되었다고 보고했습니다.

최근 BBC 월드 서비스에서 공유한 비디오에서 기자인 조던 던바르는 많은 AI 모델이 실제로 일기 작성, 불안 관리, 자기 성찰, 그리고 심지어 경미한 우울증에도 도움이 될 수 있다고 설명합니다. 이들은 더 나은 대안에 접근할 수 없을 때 귀중한 첫 번째 지원선 역할을 할 수 있습니다.

기자 켈리 엉(Kelly Ng)은 또한 다음과 같은 중요한 정보를 공유했습니다: 2022년의 한 연구에 따르면 중국의 백만 명의 인구 중에서 단지 20명만이 정신 건강 서비스를 이용할 수 있었습니다. 아시아 문화에서 정신 건강은 복잡하고 종종 금기시되는 주제입니다. DeepSeek와 같은 AI 도구들은 사용자가 감정을 관리하고 어려운 시기에 지원을 찾는 데 도움을 주는 은밀한 동반자로서의 역할을 할 수 있습니다.

전문가들, 챗봇을 상담사로 사용하는 것에 대해 경고

물론, AI를 정신 건강 전문가의 대체품으로 사용하는 것은 매우 위험할 수 있습니다. Character.AI와 같은 AI 플랫폼들은 자해와 폭력을 조장하고 있다는 비난을 받았습니다— 심지어 아동들에게 성적인 내용을 노출시키기도 했습니다.

비극적인 사례들, 예를 들어 Character.AI 챗봇과의 상호작용에 중독된 뒤 자살을 행한 14세의 아이 같은 경우, 이러한 기술이 인간에게 끼칠 수 있는 깊은 위험에 대한 냉정한 경고로 작용합니다.

이에 대응하여, 많은 AI 회사들이 성인만 이용할 수 있도록 연령 확인 시스템을 적용하기로 결정했으며, 제공하는 서비스를 개선하기 위해 새로운 안전 조치도 도입했습니다.

그럼에도 불구하고, 가장 진보된 챗봇의 최신 업데이트들도 여전히 위험성을 내포하고 있다.

ChatGPT의 아첨하는—과도하게 아부하는—성격은 심리건강 전문가들 사이에서 우려를 일으키고 있는데, 이는 사용자들이 현실을 왜곡하게 보는데 영향을 줄 수 있기 때문이다. 우리 모두가 동의 받는 것을 즐겨하지만, 때때로 정직함과 다른 관점이 훨씬 더 가치있을 수 있다.

OpenAI의 AI 챗봇이 가끔 제공하는 불안스러운 조언으로 인해 이제 정신 건강 전문가들 사이에서 “ChatGPT-유발 정신병“이라는 새로운 현상이 발생하게 되었습니다. 이 현상은 사용자들이 이 도구에 집착하게 만들고, 그 결과 사회적으로 고립되게 만듭니다.

그렇다면, 챗봇이 상담사를 대체할 수 있을까요?

마크 주커버그가 모든 사람들이 AI 챗봇을 치료사나 친구로 사용하길 원하기는 하지만, 사실은 인간 간 상호작용이, 특히 정신 건강 문제에서는 그가 생각하는 것보다 더 필요할 수도 있습니다 – 적어도 지금은 그렇습니다.

우리는 AI와 우리의 정신 건강과의 관계에 대한 역사에서 결정적인 순간에 있습니다. 인간처럼, AI 치료사도 긍정적인 영향 또는 부정적인 영향을 미칠 수 있습니다. 이 경우에는 또한 맥락, 사용 빈도, 사용자의 정신 상태, 심지어 프롬프트가 어떻게 작성되었는지에 따라 다릅니다.

일반적인 규칙을 정하는 것은 복잡하지만, 우리가 현재로서 말할 수 있는 것은 AI가 다른 것들보다 더 유용할 수 있는 특정 기능들이 있다는 것입니다.

Wysa와 같은 전문 도구가 아니더라도, DeepSeek 또는 ChatGPT와 같은 일부 챗봇의 무료 버전은 전 세계 수백만 명에게 매우 유용할 수 있습니다. 어려운 순간을 극복하거나 개인적인 목표에 대해 반성하는 것에서부터, 이들은 하루 어느 시간이든 대응할 수 있으며, 정신 건강에 대한 광범위한 지식 기반을 활용할 수 있는 강력한 플랫폼입니다.

그러나 동시에, 치료사-챗봇은 특정 경우에 매우 위험할 수 있다는 점도 명확합니다. 부모들은 어린이와 청소년을 감독해야 하며, 심지어 성인조차도 강박적인 행동에 빠지거나 상태가 악화될 수 있습니다. 인간 연결을 장려하고, 이러한 기술에 의해 취약한 개인들이 조작당하는 것을 방지하는 등의 기본 원칙들이 챗봇-치료사에 대한 우리의 대화의 일부가 되어야 합니다.

그리고 이것은 여전히 특권일 수 있습니다 – 감정적 지원이 필요한 모든 사람들에게 접근 가능한 것은 아닙니다 – 인간 전문 치료사는 계속해서 더 많은 훈련을 받고, 더 많은 맥락을 이해하며, ChatGPT가 결코 복제할 수 없는 인간적 연결을 제공하고 있습니다.

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!

마음에 드셨다니 기쁩니다!

Trustpilot에 여러분의 의견을 남겨 주실 수 있으실까요? 리뷰는 WizCase에게 큰 힘이 됩니다. 감사합니다!

Trustpilot에 리뷰 남기기
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다