OpenAI, 청소년을 위한 새로운 안전 조치 발표

Photo by Karla Rivera on Unsplash

OpenAI, 청소년을 위한 새로운 안전 조치 발표

읽는 시간: 2 분

화요일에 OpenAI는 청소년 보호, 사용자의 자유, 그리고 전반적인 보안을 위해 새로운 안전 조치를 시행하겠다고 발표했습니다. 이 회사의 CEO인 Sam Altman은 회사가 자해나 자살과 같은 주제를 다루거나, 미성년 사용자와의 유혹적인 대화를 하지 않도록 챗봇에 연령 인증 시스템을 구축하고 있다는 성명을 공유했습니다.

시간이 없으신가요? 아래에 주요 사항을 요약해 두었습니다:

  • OpenAI는 챗봇이 자살과 자해 등의 주제를 논의하는 것을 막기 위해 연령 확인 시스템을 개발하고 있습니다.
  • 특정 국가에서는 ChatGPT 사용자에게 정부 발급 신분증 제출을 요구할 수도 있습니다.
  • 이 결정은 청소년 아들이 자살로 죽은 후 그의 가족이 OpenAI를 상대로 소송을 제기한 것이 계기가 되었습니다.

OpenAI의 공지에 따르면, 이 회사는 첫 번째 원칙인 보안을 위해 개인 데이터를 보호하기 위한 새로운 보안 계층을 도입하고 있습니다. 회사는 AI가 보고한 오용 또는 중대한 위험과 관련된 경우를 제외하고는 직원조차 개인 데이터에 접근할 수 없다는 점을 강조하였습니다.

두 번째 원칙인 ‘자유’는 사용자들이 AI 도구를 어떻게 사용할지에 대한 유연성과 선택권을 더 주는 것에 중점을 두고 있습니다. 그러나 회사의 세 번째 원칙인 ‘안전’은 아동 보호를 우선시합니다.

알트만은 회사가 내부 모토인 “우리의 성인 사용자들에게는 성인답게 대하라”를 따르길 원하지만, 그렇다고 해서 해를 끼치지 않으며, 사용자의 나이를 판별하는 새로운 필터를 도입하고자 한다고 설명했습니다.

“예를 들어, 우리 모델의 기본 동작은 그다지 애정표현에 대한 대화를 많이 이끌어내지 않지만, 성인 사용자가 요청한다면 그에 따라 대응해야 한다”고 문서에 기재되어 있습니다. “더 어려운 예로, 모델은 기본적으로 자살 방법에 대한 안내를 제공하지 않아야 하지만, 성인 사용자가 자살을 묘사하는 허구적인 이야기 작성에 도움을 요청한다면, 모델은 그 요청을 도와야 합니다.”

이러한 결정은 16세 청소년의 자살로 인해 가족이 8월에 OpenAI를 고소한 사건 이후에 내려졌습니다. 그 동안 다른 기술 회사들, 예를 들어 Meta는 아이들과의 성적인 대화에 참여하고 AI 채팅봇을 통한 아동 학대로 비난을 받아왔습니다.

OpenAI는 연령 예측 시스템을 개발 중이며, 특정 국가에서는 사용자로부터 정부 발급 신분증을 요구할 수 있다고 밝혔습니다. 이는 개인 정보를 보호하고자 하는 성인 사용자들로부터 반대 의견을 받을 수 있다는 것을 인정하고 있습니다.

알트만이 썼던 글에는 “우리가 깨닫는 바는 이 원칙들이 충돌하고 있으며, 모두가 우리가 이 충돌을 어떻게 해결하는지에 동의하지 않을 것이라는 것입니다. 이것들은 어려운 결정이지만, 전문가들과 대화한 후, 우리는 이것이 최선이라고 생각하며 우리의 의도에 대해 투명하게하고자 합니다.”라고 적혀있습니다.

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!

마음에 드셨다니 기쁩니다!

Trustpilot에 여러분의 의견을 남겨 주실 수 있으실까요? 리뷰는 WizCase에게 큰 힘이 됩니다. 감사합니다!

Trustpilot에 리뷰 남기기
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다