수천 건의 ChatGPT 채팅이 실수로 공개되었습니다

Image by Solen Feyissa, from Unsplash

수천 건의 ChatGPT 채팅이 실수로 공개되었습니다

읽는 시간: 2 분

수천 명의 ChatGPT 사용자들이 그들의 비공개 채팅이 구글 검색에서 공개적으로 보이게 된 것을 알게 되어 큰 충격을 받았습니다.

시간이 부족하신가요? 이것이 주요 사실들입니다:

  • Google 검색 결과에 4,000개 이상의 ChatGPT 대화가 나타났습니다.
  • 사용자들은 대화를 공유할 때 “검색 가능하게 하기” 체크박스를 잘못 이해했습니다.
  • 대화를 통해 약물 사용, 트라우마, 정신 건강에 관한 세부사항이 드러났습니다.

OpenAI는 검색 엔진에 의해 채팅 내용을 색인화하는 논란의 기능을 빠르게 철회했지만, 이 사건은 사용자의 개인 정보 보호에 대한 널리 퍼진 우려를 촉발시켰습니다.

Fast Company가 최초로 이 문제를 보도하였으며, 간단한 Google 검색만으로 4000건 이상의 ChatGPT 대화를 찾아볼 수 있었습니다. 이러한 대화들은 개인 정보를 노출시키는데, 이에는 정신 건강 문제, 약물 사용, 가족 문제, 그리고 트라우마 등이 포함되었습니다. 대화에서 사용자 이름은 표시되지 않았지만, 포함된 상세 정보 때문에 때때로 개인을 식별하는 것이 가능했습니다.

문제의 원인은 사용자가 “공유”를 클릭했을 때 나타나는 “이 채팅을 검색 가능하게 만들기”라는 작은 체크박스에서 비롯되었습니다. 많은 사람들이 이 옵션을 혼동하였고, 아래에 간략하게 표시된 설명이 이에 대한 충분한 설명을 제공하지 못했습니다.

ArsTechnica는 OpenAI의 최고 정보 보안 책임자인 Dane Stuckey가 X에서 채팅이 색인된 것은 ‘참여를 선택한 사용자들만’이었다며 이 실험을 ‘단기적인’ 것이었다고 말했다고 보도했습니다. 그러나 그는 이 기능이 “사람들이 의도하지 않은 것들을 실수로 공유할 수 있는 기회를 너무 많이 제공했다”고 인정했습니다.

AI 윤리학자 Carissa Véliz는 이런 행위를 비판하면서 “저는 그저 놀랐습니다. Google이 이렇게 극도로 민감한 대화를 기록하는 것이 놀랍습니다.”라고 Fast Company에 보도되었습니다. 그녀는 또한 “이 회사인 OpenAI가 신뢰할 수 없다는 것, 그들이 무슨 말을 하든 개인 정보를 진지하게 생각하지 않는다는 것을 더욱 확증하는 일입니다.”라고 덧붙였습니다.

구글의 대변인이 Ars Technica에게 색인 생성은 출판사들이 어떤 페이지를 공개하는지에 따라 달라진다고 말했습니다: “구글이나 다른 어떤 검색 엔진도 웹상에서 어떤 페이지가 공개될지를 제어하지 않습니다.”

사이버 보안 전문가 Rachel Tobac은 “사람들은 ChatGPT와 같은 도구를 완전히 개인적으로 사용할 수 있다고 기대하지만, 실제로는 많은 사용자들이 이런 플랫폼들이 의도치 않게 그들의 가장 개인적인 질문, 이야기, 두려움을 누설할 수 있는 기능을 가지고 있다는 사실을 완전히 이해하지 못하고 있다”고 Fast Company에서 보도했습니다.

OpenAI는 검색 엔진에서 노출된 채팅을 제거하고 사용자의 신뢰를 회복할 것을 약속했습니다.

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!

마음에 드셨다니 기쁩니다!

Trustpilot에 여러분의 의견을 남겨 주실 수 있으실까요? 리뷰는 WizCase에게 큰 힘이 됩니다. 감사합니다!

Trustpilot에 리뷰 남기기
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다