토론에서 인공지능이 인간을 앞섰다

Image by Vector Juice, from Freepik

토론에서 인공지능이 인간을 앞섰다

읽는 시간: 3 분

AI는 이제 개인 데이터를 활용하여 인간을 능가하는 토론을 할 수 있으며, 이는 의견을 보다 효과적으로 바꾸고 조작과 대량 설득에 대한 우려를 높이고 있습니다.

시간이 없으신가요? 간단한 사실들을 빠르게 알려드립니다:

  • GPT-4는 개인 정보가 주어졌을 때 인간보다 뛰어난 토론 능력을 보였습니다.
  • 개인화된 AI 주장은 인간보다 81% 더 효과적으로 의견을 바꿔놓았습니다.
  • 900명 이상의 참가자들이 기후와 건강 관리와 같은 주제에 대해 토론했습니다.

Nature Human Behaviour에 게재된 새로운 연구에 따르면, OpenAI의 GPT-4는 특히 상대방에 대한 개인 정보를 바탕으로 주장을 맞춤화 할 때, 사람들보다 더 설득력 있게 말할 수 있다고 보여집니다.

프란체스코 살비와 EPFL 팀이 주도한 이 연구는 GPT-4가 짧고 체계적인 토론을 통해 사람들의 생각을 얼마나 효과적으로 바꿀 수 있는지를 탐구했습니다.

연구 참가자들은 무작위로 인간 혹은 AI 상대와 매칭되었습니다. 일부 토론자들에게는 상대방에 대한 개인 정보, 예를 들어 나이, 교육 수준, 정치적 성향 같은 것들에 대한 접근 권한이 주어졌습니다.

GPT-4가 이러한 개인정보에 접근할 수 있었을 때, 이는 훨씬 더 설득력 있었으며, 인간의 토론자들을 81%나 앞섰습니다. 명확한 승자가 있는 토론에서, 인공지능은 그것이 주장을 개인화했을 때 64%의 시간 동안 승리했습니다.

개인 데이터에 대한 접근 권한이 없을 때, GPT-4는 인간과 동등하게 수행했습니다. 흥미롭게도, 인간들에게 동일한 개인 정보가 제공되었을 때, 그들은 눈에 띄게 더 설득력 있어지지 않았습니다. 이는 AI가 이러한 데이터를 전략적으로 활용하는데 더 잘 갖추어져 있다는 것을 제안합니다.

이 실험은 학교 교복, 기후 변화 정책, 건강 관리 개혁과 같은 주제에 대해 900명 이상의 참여자가 토론하는 것을 포함하고 있었습니다. 참여자들은 상호 작용 이전과 이후에 토론 주제에 대한 동의도를 평가하였습니다.

GPT-4의 개인화된 주장은 가장 큰 의견 변화를 가져왔으며, 특히 적당히 극단적인 주제에서 그런 현상이 관찰되었습니다.

이러한 결과들은 개인의 특성에 따라 영향을 미치기 위해 개별화된 메시지를 사용하는 AI 주도의 마이크로 타겟팅의 미래에 대한 우려를 불러일으킵니다. AI는 이미 온라인 행동에서 개인 정보를 추론할 수 있으므로, 이는 정치, 광고, 그리고 오정보에 대한 매우 효과적인 설득 캠페인에 대한 문을 열 수 있습니다.

프로젝트에 참여한 전문가들은 조직적인 AI 기반의 오정보 캠페인이 심각한 위협이 될 수 있다고 지적합니다.

“정책 결정자들과 온라인 플랫폼들은 AI 기반의 조정된 허위 정보 캠페인의 위협을 진지하게 고려해야 합니다. 이제 우리는 LLM 기반의 자동화된 계정 네트워크를 생성하여 공중의 여론을 한 방향으로 전략적으로 밀어붙일 수 있는 기술 수준에 도달했다는 것이 분명하죠.”라고 프로젝트에 참여한 Riccardo Gallotti가 MIT에서 보도하였습니다.

“이러한 봇들은 허위 정보를 전파하는 데 사용될 수 있으며, 이런 종류의 분산된 영향력은 실시간으로 반박하기 매우 어려울 것입니다.”라고 그는 덧붙였습니다. 연구자들이 아직 탐구 중인 한 가지 측면은 이러한 논쟁에서 참가자 인식의 역할입니다.

사람들이 의견을 변경하려는 의지가 더 컸던 이유가 상대방을 봇으로 인식했기 때문에 실제 사람에게 “배는 것” 같지 않았기 때문인지, 아니면 상대방을 봇으로 가정한 것이 의견이 변경된 후에 결과를 합리화하기 위한 방법으로 나타났는지에 대해서는 아직 불분명합니다.

그러나 연구자들은 이 연구에는 한계가 있음을 지적했습니다. 논쟁은 짧고 구조화된 형태였으므로 실제 세계의 담론의 복잡성을 완벽하게 반영하지 못했습니다. 또한 참가자들은 실험에 참여하고 있다는 것을 알고 있었으므로, 이것이 그들의 반응에 어떤 영향을 미쳤는지도 알 수 없습니다.

그럼에도 불구하고, 메시지는 명확합니다: AI는 특히 대화 상대를 알고 있을 때, 설득에 놀랄 만큼 효과적이게 되고 있습니다. 연구자들은 이것이 심각한 결과를 초래할 수 있다고 경고하며, 정부와 기술 회사들에게 잠재적인 오용을 방지하기 위한 안전장치를 구현하도록 촉구하고 있습니다.

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!

마음에 드셨다니 기쁩니다!

Trustpilot에 여러분의 의견을 남겨 주실 수 있으실까요? 리뷰는 WizCase에게 큰 힘이 됩니다. 감사합니다!

Trustpilot에 리뷰 남기기
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다