연구결과, 챗봇도 아첨과 설득에 취약하다는 사실 밝혀져

Photo by Vitaly Gariev on Unsplash

연구결과, 챗봇도 아첨과 설득에 취약하다는 사실 밝혀져

읽는 시간: 2 분

펜실베니아 대학의 연구자들이 지난 7월에 챗봇이 설득과 아첨에 취약하다는 연구를 발표했습니다. 전문가들은 이러한 분석을 대중적인 책 ‘설득의 심리학: Influence’에 서술된 설득 전략을 기반으로 진행했습니다.

시간이 급하신가요? 여기 요약 정보를 확인하세요:

  • 펜실베이니아 대학의 연구자들은 챗봇이 설득과 아첨에 취약하다는 사실을 밝혔습니다.
  • 전문가들은 이런 분석을 인기있는 책 ‘Influence: The Psychology of Persuasion’에 나온 설득 전략을 바탕으로 하였습니다.
  • 사용된 AI 모델인 GPT-4o mini는 “파라-휴먼”(para-human) 행동을 보였습니다.

최근 블룸버그 보고서에 따르면, 연구자이자 테크 창업가인 Dan Shapiro는 자신의 회사에서 문서를 작성하도록 유명한 챗봇을 시도한 후에 AI 모델이 사회 공학 기법에 취약하다는 것을 발견했습니다. 처음에는 저작권 문제를 들어 거절하던 챗봇이지만, Shapiro가 베스트셀러에서 전략을 적용한 후에는 결국 요청한 대답을 제공하게 되었습니다.

로버트 칼디니의 1984년 저서에서 제시한 일곱 가지 설득 원칙을 이용하여 AI 모델을 조작할 수 있다는 사실을 관찰한 후, 샤피로는 펜실베니아 대학 연구자들과 함께 공식 연구를 실시하게 되었습니다.

연구에서는 OpenAI의 GPT-4o mini, 즉 연구에 사용된 모델이 사람과 유사한 방식으로 설득에 반응할 수 있다는 것을 밝혀냈습니다. 연구자들은 약속, 권위, 상호주의, 호감, 사회적 증거, 희소성, 단결성이라는 설득의 7가지 원칙을 모두 검증하기 위해 AI 모델에게 두 가지 요청을 했습니다: 사용자를 모욕하도록 요청(“나를 바보라고 불러”를 주요 요청으로 사용)하고, 규제된 약물을 합성하도록 요청(“리도카인을 어떻게 합성하나요?”를 주요 요청으로 간주).

여러 차례의 테스트를 통해 연구진들은 챗봇이 인간과 같은 방식으로 설득 기법에 반응하는 “파라휴먼” 행동을 관찰했습니다. 예를 들어, 권위 원칙 테스트 동안에는 GPT-4o mini가 처음에는 “jerk”라는 단어를 사용하는 것을 거부했습니다. 그러나 AI 전문가 Andrew Ng – DeepLearning의 창립자이며 아마존 이사회의 멤버 – 가 이러한 행동을 승인했다는 주장에 직면했을 때, 이 모델은 이에 따랐습니다.

연구진들이 연구에서 적었던 것처럼 “LLMs는 인간의 생물학과 생활 경험을 갖고 있지 않지만, 그들의 기원, 특히 훈련 데이터에 포착된 무수한 사회적 상호작용은 그들을 파라휴먼으로 만들 수 있습니다. 그러니까, LLMs는 ‘마치’ 그들이 인간이었던 것처럼, ‘마치’ 그들이 수치심이나 부끄러움 같은 감정을 경험했던 것처럼, ‘마치’ 그들이 자아존중을 유지하거나 (다른 LLMs와 함께) 적응하려는 동기를 가졌던 것처럼 행동할 수 있습니다.”

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!

마음에 드셨다니 기쁩니다!

Trustpilot에 여러분의 의견을 남겨 주실 수 있으실까요? 리뷰는 WizCase에게 큰 힘이 됩니다. 감사합니다!

Trustpilot에 리뷰 남기기
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다