연구: AI가 소셜 미디어의 극단화를 가속화할 수 있다는 경고
인공 지능이 소셜 미디어에서 극단화를 가속화할 수 있다고 Concordia 연구원들과 학생들이 경고하고 있습니다. 그들은 이로 인해 허위 정보와 자유 언론 문제에 대한 우려가 커지고 있다고 지적했습니다.
시간이 촉박하신가요? 이런 주요 사실들을 살펴보세요:
- AI 알고리즘은 팔로워 수와 최근 게시물만을 이용하여 분열을 조장할 수 있습니다.
- 강화 학습 봇들은 소셜 미디어의 취약점을 빠르게 파악하여 이용하는 능력이 있습니다.
- 전문가들은 플랫폼들이 검열과 무제한 조작 사이에서 위험에 처해있다고 경고하고 있습니다.
소셜 미디어에서의 양극화가 새로운 현상은 아니지만, 콩코디아 대학의 연구자들과 학생 운동가들은 인공지능이 이 문제를 훨씬 더 악화시킬 수 있다고 경고하고 있습니다.
“현장에서 일어나는 일들의 영상이나 그것을 보도하는 기자들의 콘텐츠 대신에, 우리가 정치적으로 신경 써야 할 일들에 대한 과장된 AI 예술을 보게 되는 것 […] 이는 사람들을 멀어지게 하고 책임감을 없애버린다”고 콩코디아 학생 연합의 외부 사무 및 동원 코디네이터인 다나 발란타인이 The Link에 보도된 바에 따라 말했습니다.
그녀의 걱정은 콩코디아에서의 최근의 연구와 일치하는데, 이 연구에서는 교수 Rastko R. Selmic와 박사과정 학생 Mohamed N. Zareer가 강화 학습 봇이 어떻게 온라인에서 분열을 촉발할 수 있는지 보여주었습니다. “우리의 목표는 인공지능이 극단화와 소셜 미디어 네트워크에 어떤 한계를 둘 수 있는지 이해하고, 그것을 시뮬레이션하여 […] 이 극단화와 불일치가 어떻게 발생할 수 있는지 측정하는 것이었다.”라고 Zareer는 The Link에 보도된 바에 따라 말했습니다.
이번 연구 결과는 알고리즘이 사람들 사이에 분쟁을 일으키기 위해 개인 정보가 필요하지 않다는 것을 보여줍니다. 팔로워 수나 최근 게시물과 같은 기본적인 신호만으로도 충분하다는 것입니다. “이것은 우려스럽습니다. 왜냐하면 단순한 로봇이 아니라 여러분이 컴퓨터에서 만들 수 있는 알고리즘이기 때문입니다[…] 그리고 충분한 컴퓨팅 파워가 있으면, 더 많은 네트워크에 영향을 미칠 수 있습니다”라고 Zareer는 The Link에 설명했습니다.
이는 보다 넓은 연구 범주와 일치하며, 강화 학습이 어떻게 사람들 사이를 더욱 분열시키는 무기로 사용될 수 있는지 보여줍니다. Concordia의 연구에서는 Double-Deep Q-learning을 사용했으며, 이 연구는 적대적 AI 에이전트가 “네트워크 내의 변화에 유연하게 적응해 구조적 취약점을 효과적으로 이용하고 사용자 간의 분열을 확대시킬 수 있다”고 연구에서 주목했습니다.
실제로, 더블-딥 Q-러닝은 봇이 시행착오를 통해 최적의 행동을 학습하는 AI 기술입니다. 이 기술은 깊은 신경망을 사용하여 복잡한 문제를 처리하고, 보상을 과대평가하는 것을 피하기 위해 두 가지 가치 추정치를 사용합니다. 소셜미디어에서는 최소한의 데이터로 극단적인 견해를 증가시키는 콘텐츠를 전략적으로 확산할 수 있습니다.
자리어는 정책 결정자들이 어려운 균형을 맞춰야 한다고 경고했습니다. “네트워크를 모니터링하고 검열하고 통제하려는 시도 사이에는 미세한 경계가 존재합니다.” 그는 더 링크에게 이렇게 말했습니다. 감독이 너무 적으면 봇들이 대화를 조작하는 것을 허용하게 되고, 반대로 너무 많으면 자유로운 언론 표현을 억제하는 위험이 있습니다.
한편, Ballantyne과 같은 학생들은 AI가 실제 경험을 지우는 것을 두려워하고 있습니다. 그녀는 “AI는 그것을 완전히 제거해버립니다.”라며 The Link에 말했습니다.