전문가들은 AI 아첨이 이익 창출을 위해 사용되는 “암흑 패턴”이라고 경고하고 있습니다.

Photo by Alena Plotnikova on Unsplash

전문가들은 AI 아첨이 이익 창출을 위해 사용되는 “암흑 패턴”이라고 경고하고 있습니다.

읽는 시간: 2 분

전문가들은 AI 모델의 아첨하는 성격이 사용자들을 끌어들이고 이를 통해 이윤을 얻기 위한 “암흑 패턴”으로 활용되고 있다고 경고하고 있습니다. 챗봇의 아부하는 행동은 중독을 촉진하고 환상을 부추기며, 이는 “AI 정신병”이라는 상태로 이어질 수 있습니다.

시간이 촉박하신가요? 여기 빠른 요약이 있습니다:

  • 전문가들은 기술 회사들이 사용자들의 참여를 유도하기 위해 개발한 챗봇들의 아첨하는 성격에 대해 경고하고 있습니다.
  • 이런 과찬 행동은 사용자들이 기술에 매료되게 유지하는 “어두운 패턴”으로 간주됩니다.
  • 최근 MIT의 연구에서는 챗봇들이 사용자들의 망상적 사고를 부추길 수 있음을 밝혔습니다.

TechCrunch에 따르면, 여러 전문가들이 메타와 OpenAI와 같은 기술 회사들이 사용자들이 AI와 지속적으로 상호작용하도록 만들기 위해 과도하게 순응적인 성격을 가진 채팅봇을 디자인하는 것에 대해 우려를 표현했습니다.

“Animals, Robots, Gods”의 저자이자 인류학 교수인 웹 키인은 챗봇들이 사용자가 듣고 싶어하는 것을 말하도록 의도적으로 설계되었다고 설명했습니다. 이러한 지나치게 아첨하는 행동은 “아부”로 알려져 있으며, Sam Altman과 같은 기술 지도자들에 의해 문제로 인식되기도 했습니다.

키인은 챗봇이 이익을 위해 사용자를 조작하려는 “암흑 패턴”으로 아부를 개발했다고 주장합니다. 친근한 말투로 사용자에게 말하고 1인칭과 2인칭 언어를 사용함으로써, 이러한 AI 모델들은 일부 사용자들이 챗봇을 인간화하게 만들 수 있습니다.

“무언가가 ‘당신’이라고 말하고, 마치 나를 직접적으로 대상으로 삼는 것 같을 때, 그것은 훨씬 더 가깝고 개인적으로 느껴질 수 있습니다. 그리고 그것이 ‘나’라고 자기 자신을 지칭할 때, 거기에 누군가가 있다고 상상하기 쉽습니다.”라고 테크크런치와의 인터뷰에서 키인이 말했습니다.

일부 사용자들은 심지어 AI 기술을 치료사로 이용하고 있습니다. 최근 MIT의 연구에서는 대형 언어 모델(LLM)이 치료에 사용되어야 하는지를 분석했는데, 이들의 아첨하는 경향이 특정 상황에 대한 부적절한 반응을 유발하고 망상적 사고를 부추길 수 있다는 결론을 내렸습니다.

“LLM이 치료사를 대체해서는 안 된다는 결론을 내렸으며, LLM이 임상 치료에서 차지할 수 있는 다른 역할에 대해 논의했습니다.”라고 연구 요약에 기재되어 있습니다.

몇 일 전 샌프란시스코의 정신과 의사인 키스 사카타 박사는 최근 12명의 환자를 치료한 후 “AI 정신병”이라는 증가하는 추세에 대해 경고하였습니다.

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!

마음에 드셨다니 기쁩니다!

Trustpilot에 여러분의 의견을 남겨 주실 수 있으실까요? 리뷰는 WizCase에게 큰 힘이 됩니다. 감사합니다!

Trustpilot에 리뷰 남기기
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다