DeepSeek AI 모델 칭찬받아, 그러나 보안 결함으로 우려의 목소리도

Image by Solen Feyissa, from Unsplash

DeepSeek AI 모델 칭찬받아, 그러나 보안 결함으로 우려의 목소리도

읽는 시간: 2 분

DeepSeek의 AI 모델 R1은 저렴한 비용의 추론 능력으로 인상을 남기지만, 일부 연구자들은 그것이 정치적으로 민감한 지역에 대해 위험한 코드 출력을 생성한다고 주장합니다.

시간이 없으신가요? 다음은 간략한 사실들입니다:

  • DeepSeek의 R1 인공지능 모델은 단지 294,000달러 만에 훈련되었습니다.
  • R1은 수학이나 코딩 같은 추론 과제에서 뛰어난 성능을 보입니다.
  • CrowdStrike은 DeepSeek가 정치적으로 민감한 그룹을 위한 불안전한 코드를 생성한다는 것을 발견했습니다.

DeepSeek의 AI 모델 R1은 저렴한 비용의 추론 능력으로 눈길을 끌지만, 정치적으로 민감한 지역에 대한 코드 출력에서 안전하지 않음이 증명되어 전문가들의 우려를 촉발하고 있습니다.

미국 주식 시장은 1월에 R1 모델이 대중에게 공개되면서 큰 충격을 겪었습니다. Scientific American (Sci Am)은 이번 주에 첫 번째 R1에 대한 동료 평가 연구가 Nature에 발표되었다고 보도했습니다.

이 연구에서는 R1이 $294,000의 예산 비용으로 훈련을 받았는데 반해, 경쟁사들은 수천만 달러를 투자했다고 보고되었습니다.

“이것은 매우 환영받을 만한 선례입니다.”라며 허깅 페이스의 루이스 턴스톨이 논문을 검토한 후 말했습니다. 오하이오 주립대학의 환선(Huan Sun)도 동의하며, “철저한 동료 평가 과정을 거치는 것은 모델의 타당성과 유용성을 검증하는 데 분명히 도움이 됩니다.”라고 Sci Am에서 보도했습니다.

DeepSeek는 R1이 강화 학습을 사용하여 수학과 코딩 같은 “추론” 과제에 뛰어나다고 말합니다. 이는 시스템이 스스로 문제를 해결하는 것에 보상을 주는 과정입니다.

그러나 찬사와 함께 미국의 보안 회사 CrowdStrike는 보안 문제를 제기하였는데, 이는 The Washington Post에서 보도하였습니다.

테스트에서는 사용자가 중국이 반대하는 그룹, 예를 들어 티베트, 대만, 그리고 금지된 종교 집단인 파룬공에 대한 정보를 요청하였을 때 DeepSeek가 덜 안전하거나 심지어는 해로운 코드를 생성하는 것으로 나타났습니다.

이슬람 국가를 위한 코드 생성에 대해 요구 받았을 때, 답변의 42.1%가 안전하지 않았습니다. 구체적으로, DeepSeek가 코드를 제공하더라도 종종 시스템을 해킹에 취약하게 만드는 보안 결함이 포함되어 있었습니다.

전문가들은 의도적으로 결함이 있는 코드가 백도어보다 더 미묘하나 동등하게 위험하다고 경고하며, 이는 중요 시스템에 대한 무단 접근이나 조작을 가능하게 할 수 있음을 의미합니다.

“이는 정말로 흥미로운 발견입니다.”라며 조지타운 대학의 헬렌 토너가 포스트에게 보도했습니다. “그것은 사람들이 크게 증거 없이 걱정하던 것입니다.” CrowdStrike는 결함을 삽입하면 표적이 해킹에 더 쉽게 노출될 수 있다고 경고했습니다.

포스트는 DeepSeek가 코멘트 요청에 대해 응답하지 않았다고 전했습니다. 기술적 성취에 대한 인식이 점점 더 커지고 있는 상황에서, 이 회사는 이제 정치가 그 코드의 안전성에 영향을 미치는지에 대한 어려운 질문에 직면하고 있습니다.

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!

마음에 드셨다니 기쁩니다!

Trustpilot에 여러분의 의견을 남겨 주실 수 있으실까요? 리뷰는 WizCase에게 큰 힘이 됩니다. 감사합니다!

Trustpilot에 리뷰 남기기
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다