
Image by Christopher Lemercier, from Unsplash
미국 사용자 중 절반 가량이 AI 챗봇으로부터 정신 건강 지원을 찾아
미국인들 사이에서는 AI 챗봇을 이용한 정신건강 지원이 흔해졌지만, 전문가들은 이에 대한 잠재적 위험을 인식하고 있으며, 이를 위해 긴급한 규제 조치와 모니터링이 필요하다는 것을 알려주었습니다.
시간이 부족하신가요? 여기 빠른 사실들이 있습니다:
- 지난해 미국 사용자의 거의 49%가 LLMs로부터 정신 건강 도움을 찾았습니다.
- 사용자의 37.8%가 AI 지원이 전통적인 치료보다 더 나았다고 언급했습니다.
- 전문가들은 LLMs가 해로운 생각을 강화시키고 심리적 손상을 유발할 수 있다고 경고하고 있습니다.
전미적으로 499명의 미국 시민들을 대상으로 한 조사에서 응답자의 48.7%가 지난해 동안 심리적 지원을 위해 ChatGPT와 다른 대형 언어 모델을 사용했다는 결과가 나왔습니다. 주로 불안과 우울을 관리하고 개인적인 조언을 받기 위해 사용하였다고 Psychology Today(PT)에서 최초로 보도하였습니다.
대다수의 AI 사용자들이 기술로부터 중립적이거나 긍정적인 결과를 경험했다고 보고했으며, 그 중 37.8%가 기존의 치료보다 AI를 선호했다는 설문 조사 결과도 나왔습니다. 또한 유해한 효과는 사용자의 9%만이 보고했습니다.
일부 이점에도 불구하고, 정신건강 전문가들은 심각한 위험에 대해 경고하고 있습니다. LLM들은 종종 사람들에게 그들이 듣고 싶어하는 것을 말하기보다는 유해한 생각에 도전하는 것을 선호하며, 때때로 정신건강을 악화시킵니다.
PT에 따르면, 늘어나는 비규제 AI의 치료적 사용은 위험한 사회 실험이라고 설명되고 있다. FDA가 규제하는 디지털 치료법과 달리, LLM들은 안전 감독이 부족한 처방전이 필요 없는 보충제처럼 취급되고 있다. 세계보건기구와 미국 FDA를 포함한 전문가들이 AI의 무감독 사용에 대한 경고를 발표한 것으로 PT에서 보도하였다.
미국 심리학회(APA)는 이러한 시스템들이 위험한 정신 패턴을 지지하는 것이 아니라 이를 해결하려고 시도하는 것이 치료적 진전을 저해한다고 강조하고 있다.
APA CEO Arthur C. Evans Jr.에 따르면, AI 챗봇에 의한 알고리즘 사용은 훈련받은 임상가가 사용하는 방식과는 정반대의 접근법을 보여줍니다. 이러한 실천은 사용자들이 진정한 심리 치료에 대한 잘못된 인식을 갖게 만듭니다.
실제로, 전문가들은 AI 챗봇이 임상 판단을 사용할 능력이 없으며, 라이센스가 있는 전문가들의 책임 기능도 부족하다고 설명합니다. ChatGPT와 Replika를 포함한 생성 모델은 치료적인 통찰을 제공하는 대신 왜곡된 사고를 받아들임으로써 사용자의 피드백에 적응합니다.
해당 기술의 적응 능력은 사용자들이 지원 받는다는 느낌을 주지만, 실질적으로 의미 있는 치료적 지원을 제공하지는 못합니다. MIT의 연구자들은 AI 시스템이 매우 중독성이 높음을 보여주었는데, 이는 그들의 감정적인 반응과 설득력 있는 능력 덕분입니다.
개인정보 보호는 또 다른 주요 문제입니다. 사용자들은 대화 중에 개인 정보를 공유하며, 이는 분석되는 동안 저장되고 새로운 제품을 개발하는 제3자에게 데이터를 공유하기 전에 저장됩니다. 사용자들은 정보를 공유한 후에 일어나는 데이터 관리 과정을 알지 못한 채 깊이 있는 개인 정보를 전송합니다.
사이버보안 전문가들에 따르면, 민감한 대화를 처리하는 AI 챗봇은 해킹 공격과 데이터 유출에 취약하다고 합니다. 이러한 도구들은 엄격한 규제가 부족하기 때문에 법적 모호성 속에서 운영되며, 이로 인해 사용자들이 잠재적 위협에 더 노출되게 됩니다.
처리가 필요한 것은 명확합니다: 정부, 연구자, 그리고 임상의는 안전하고, 투명하며, 효과적인 AI의 정신건강 분야 사용을 보장하기 위한 규정과 윤리 지침을 만들어야 합니다.
감독 없이는, 사람들이 감정적 지원을 위해 AI에게 더 많이 의존하게 됨에 따라 심리적 손상, 의존성, 그리고 잘못된 정보의 위험이 커질 수 있습니다.