구글의 인공지능 개요가 가짜 숙어 뜻을 환각하며 다시 한번 화제가 되다

Photo by Mitchell Luo on Unsplash

구글의 인공지능 개요가 가짜 숙어 뜻을 환각하며 다시 한번 화제가 되다

읽는 시간: 2 분

소셜 미디어 사용자들이 구글의 AI 오버뷰 기능이 무작위 문구 뒤에 “뜻”이라는 단어를 포함할 때 가짜 관용구에 대한 설명과 정의를 제공한다는 것을 발견했습니다. 이러한 AI가 생성한 대답들 중 많은 것들이 바이럴 히트를 치며 소셜 미디어 사용자들 사이에서 웃음을 자아냈습니다.

서두르시나요? 여기 빠른 사실들이 있습니다:

  • 소셜 미디어 사용자들이 구글의 AI 오버뷰가 가짜 관용구에 대한 설명을 만들어내는 것을 발견했습니다.
  • Threads, X, 그리고 Bluesky의 여러 사용자들이 엉뚱하게 꾸며낸 표현들에 대한 유사한 환각을 보고했습니다.
  • AI 오버뷰가 잘못된 정보를 제공함으로써 처음으로 화제가 되는 것은 아닙니다.

이것은 AI Overviews가 부끄러운 평판을 얻는 첫 번째가 아닙니다. 작년에는, Google 검색의 AI 도구가 잘못된 답변을 제공하여 화제가 되었습니다 — 이 중 일부는 오래된 Reddit 게시물을 기반으로 했었는데요, 이로 인해 모델의 신뢰성, 믿음직함, 정확성이 훼손되었습니다.

이번에는 AI 모델이 가공된 속담에 대해 “진지한” 답변을 사용자들에게 제공했습니다. Mashable에 따르면, AI 모델들이 정확한 답변을 제공하기 위한 충분한 정보나 답변이 없을 때에도 대답을 제공해야 한다는 이러한 필요성은 이제 “AI-splaining”으로 알려져 있습니다.

많은 사용자들이 AI 개요에 대한 현재 상황의 몇 가지 예를 소셜 미디어에 공유했습니다. “누군가가 Threads에서 Google에 아무 랜덤한 문장을 입력한 다음 ‘의미’를 붙이면, 방금 만든 유명한 관용구나 문구에 대한 AI 설명을 얻을 수 있다는 것을 알아차렸습니다.”라고 Bluesky 사용자가 그의 테스트에 대한 스크린샷을 포함하여 썼습니다.

그는 “너는 두 번째로 오소리를 핥을 수 없다”라고 적었고, 그 다음에 “의미”라는 단어를 적었습니다. 그리고 AI 모델은 이 가짜 숙어에 대한 설명을 제공했습니다: “이것은 누군가가 한 번 속은 후에 두 번째로 그들을 속이거나 기만할 수 있다는 것을 의미한다.” AI Overviews는 더 자세한 설명을 제공하기 위해 단어별로 분석했습니다.

“이 스레드에 대한 답글들은 매우 웃기지만, 경고 신호라는 것은 구글링의 핵심 기능 중 하나인 인용문을 팩트 체크하거나, 출처를 검증하거나, 반 기억되는 것을 추적하는 능력이 AI가 실제 진실보다 통계적 가능성을 정당화하는 것을 선호하게 되면 훨씬 더 어려워질 것이라는 것입니다.”라고 사용자가 덧붙였습니다.

Yahoo! Tech의 기자는 “말에게 포켓몬을 하게 하지 마라”와 같은 가짜 포켓몬 관용구를 만들어 환각상태를 확인했고, AI 모델은 완전히 만들어진 설명을 대답했습니다: “평소에는 인간의 활동으로 여기는 비디오게임이나 포켓몬 카드 게임과 같은 활동에 참여하게 하는 크고 강한 의지를 가진 동물인 말을 허용하지 않는 것에 대한 유머러스하고 가벼운 경고입니다.”

Google AI Overviews는 지난 몇 달 동안 많은 나라와 지역으로 확장되어 왔으며, 최근에는 매월 15억 명 이상의 사용자를 돌파했습니다.

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!

마음에 드셨다니 기쁩니다!

Trustpilot에 여러분의 의견을 남겨 주실 수 있으실까요? 리뷰는 WizCase에게 큰 힘이 됩니다. 감사합니다!

Trustpilot에 리뷰 남기기
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다