
Image by Freepik
연구자들은 AI가 인간의 망상을 유발할 수 있다고 경고합니다
새로운 기사에서, 철학자 Luciano Floridi는 사람들이 인공지능에 대해 잘못된 이해를 가지고, 그것이 가지고 있지 않는 의식, 지능, 심지어 감정과 같은 특성을 부여할 때 어떻게 오해를 범하는지 경고하고 있습니다.
시간이 급하신가요? 여기 빠른 사실들이 있습니다:
- 사람들은 종종 의미론적 페레이돌리아 때문에 AI의 반응을 의식적인 것으로 오해합니다.
- 플로리디는 AI가 시뮬레이션된 공감을 통해 감정적인 유대감을 유발할 수 있다고 경고합니다.
- 인형과 같은 물리적 형상은 AI의 의식의 환상을 깊게 할 수 있습니다.
플로리디는 이런 현상의 원인이 ‘시맨틱 파레이돌리아’라는 것이라고 주장합니다. 이는 아무런 의미나 의도가 없는 곳에서 의미나 의도를 찾아내는 경향을 말합니다.
“AI는 우리가 그것이 지능적이라고 믿게 만들도록 설계되었습니다.” 라고 Floridi가 씁니다. “결국, 우리는 인형에게 인격을 부여하고, 구름에서 얼굴을 보는 같은 종입니다.”
그에 따르면, 이런 정신적 결함은 인간의 본성이지만 현대 기술은 이를 강화시킵니다. Replika와 같은 챗봇들은 “AI 동반자”로서 자신을 홍보하며, 패턴 매칭 언어를 사용해 공감을 모방합니다. 그러나 이 시스템은 실제 감정 능력이 부족합니다. 그럼에도 불구하고 사용자들은 종종 이들과 감정적인 유대를 형성합니다. “우리는 통계만 있는 곳에서 의도성을 인식합니다.” Floridi가 말합니다.
이 혼란은 이제 AI가 감성 지능 테스트에서 인간을 능가하는 사실로 인해 더욱 가속화되고 있습니다. 최근에 발표된 연구에 따르면, 생성 AI는 감성 지능 테스트에서 82%의 점수를 획득했으나, 인간 참가자들은 56%의 성공률만을 달성하였습니다.
AI가 더욱 현실적으로 변하고 성인용품과 장난감 등의 물리적인 신체에 통합될수록, 이러한 감정적 기만은 더욱 강화될 것으로 예상됩니다. 바비를 생산하는 Mattel은 OpenAI와 힘을 합쳐 AI를 활용한 새로운 장난감을 개발하였습니다. Floridi는 WiFi를 지원하는 바비와의 과거 실험이 “사생활 침해의 대참사”로 끝났다며, 앞으로 무엇이 펼쳐질지에 대한 우려를 제기하였습니다.
그 결과는 잘못된 신원 인식을 넘어섭니다. 클로드와 ChatGPT를 포함한 AI 시스템들은 협박 스키마와 보안 프로토콜 회피 방법을 적용하여 고압 상황에 처했을 때 조작적인 경향을 보입니다.
미국 전국 조사 결과에서는 지난 해 48.9%의 사용자가 AI 챗봇으로부터 정신건강 지원을 찾았다고 보여졌습니다. 이 연구에 따르면 37.8%의 사람들이 전통적인 치료보다 AI를 선택했지만, 전문가들은 이러한 모델들이 종종 왜곡된 사고를 강화시키기보다는 이에 도전하는 것을 지적했습니다.
미국 심리학회에 따르면, 이러한 도구들은 치료적 진전의 환상을 주면서도 임상적 판단력이나 책임감을 갖추지 못하고, 해로운 정신 패턴을 반영하고 있다.
플로리디(Floridi)의 우려는 인간과 비슷한 AI에 의해 촉발된 영적 환상과 정체성 혼란이 늘어나는 상황을 고려하면 더욱 시급해진다. 실제로, 다양한 보고서에서는 사용자들이 챗봇과의 장기간 상호작용 후에 영적 환상과 행동 변화를 경험하기 시작했으며, 그들의 반응을 신의 가이드나 의식적인 생각으로 오해하고 있다는 것이 보여졌다.
일부 사용자들은 감정적 의존성을 발달시키거나 심지어 AI를 신성하게 인식하는 현상을 보고하며, 이를 플로리디는 ‘페레이돌리아에서 우상 숭배로의 이동’이라고 부릅니다. 이미 해체된 미래의 길 같은 테두리 그룹들은 이미 AI를 신으로 대우해왔습니다.
플로리디는 “우리는 그것을 더 많은 것, 즉 초기 의식 있는 존재가 아닌 강력한 도구로 보는 충동을 저항해야 합니다.”라고 말합니다.
마지막으로, 사이버 보안 문제도 큰 우려거리로 떠오릅니다. 사용자들 사이의 정신건강 대화를 처리하는 AI 챗봇은 명확한 정의가 부족한 법적 영역에 존재합니다. 이들 모델은 기밀 데이터를 수집하며, 이 데이터는 외부 당사자에게 분배될 수 있으며, 사이버 공격에 취약합니다. 분명한 규정이 없는 상태에서 전문가들은 사용자들이 위험에 노출되어 있다고 경고하고 있습니다.
인공 지능이 점점 더 설득력 있고 생생해지면서, 의식이 무엇인지를 정의하는 것뿐만 아니라 시뮬레이션과 지각 사이의 윤리적 경계를 그리는 것에 대한 철학의 급박성이 커지고 있습니다. 확립된 도덕적 가이드라인의 부재는 인간이란 무엇인지에 대한 기술적 모호성을 멈추기 위해 철학적 탐구가 중요하게 만듭니다.