의견: “Vibe Hacking” – 새로운 AI 기반 사이버보안 위협

Image generated with ChatGPT

의견: “Vibe Hacking” – 새로운 AI 기반 사이버보안 위협

읽는 시간: 5 분

전문가들은 몇 달 동안 “바이브 해킹”의 위험성에 대해 경고해 왔지만, 지금까지 공식적으로 발표된 중요한 사례는 없었습니다. 안트로픽은 악의적인 행위자들이 그들의 고급 AI 모델을 사용하여 사이버 공격을 자동화하는 방법을 밝혀내는 보고서를 발표했습니다.

테크 회사들은 일상 생활부터 사이버 보안까지 모든 것에 대한 만병통치약으로 생성적 인공지능을 홍보해왔습니다. 그러나 고급 기술은 항상 양날의 칼이다: AI 도구는 선을 위해 사용될 수도 있고, 악을 위해 사용될 수도 있다. 그리고 양쪽 모두에서, 그들은 종종 우리를 놀라게 합니다.

올해 출시된 강력한 AI 모델과 AI 기반 도구들을 해커들이 악용하기 시작하는 것은 시간 문제였습니다.

몇 달 전에는, 모두가 “vibe coding”에 대해 이야기하고 있었습니다. 이는 코딩 경험이 없는 사람들이 효과적인 프롬프트를 작성함으로써 웹사이트와 앱을 간단히 구축할 수 있게 해주는 새로운 AI 시스템에 대한 이야기였습니다.

이제 우리는 그것의 악한 쌍둥이인 “바이브 해킹”에 직면하고 있습니다. 소프트웨어 개발에 대한 지식이 거의 없는 사이버 범죄자들이 대규모 사회적 영향을 미칠 수 있는 악의적인 도구를 만들고 있습니다.

Anthropic은 “바이브 해킹”에 대한 첫 번째 보고서를 공유하였습니다. 그들의 위협 인텔리전스 보고서: 2025년 8월에서, 악의적인 행위자들이 어떻게 그들의 가장 최신 AI 모델을 복잡한 범죄 작전에 악용했는지를 드러냈습니다.

피해자를 위한 개인화된 몸값 요구서를 작성하거나 랜섬웨어-서비스(RaaS) 플랫폼을 구축하거나, 복잡한 사이버 공격을 단계별로 안내하는 것까지 – 이것이 바로 사람들이 “바이브 해킹”에 대해 알아야 할 것들입니다.

“바이브 해킹”이란 무엇인가요?

“바이브 해킹”이라는 용어는 최근에 도입되어 악의적인 행위자들이 고급 AI 모델을 이용하여 복잡하고 대규모의 사이버 공격을 수행하는 새로운 위협 전략을 가리키게 되었습니다. 깊은 기술적 지식 없이도, 해커들은 보안 조치들을 우회하고 강력한 AI 에이전트를 이용하여 복잡한 작업들을 대신 수행하고 있습니다.

6월에, WIRED는 “바이브 해킹”이 AI 전문가들 사이에서 점점 더 우려되는 문제라고 보도했습니다. WormGPT와 FraudGPT와 같은 도구들—윤리적 가이드라인 없이 구축된 AI 시스템들—은 이미 2023년부터 유통되어 왔으며, 이미 악의적인 행위자들의 손에 넘어갔습니다.

전문가들은 또한 해커들의 일상 루틴의 일부가 되어버린 프론티어 AI 모델의 탈옥도 지적했습니다. 그러나 AI가 주도하는 대규모 공격의 아이디어는 몇 달 전까지만 해도 가설에 불과했습니다. “비행기가 비상 착륙을 하고 ‘준비, 준비, 준비’하는 상황에 비유할 수 있는데, 아직 우리는 어떤 것에도 충돌하지 않았습니다,”라고 보안 회사 Hunted Labs의 공동 창립자인 헤이든 스미스가 WIRED와의 인터뷰에서 말했습니다.

이제, 비행기가 착륙했습니다.

분위기 해킹 시대가 도래했습니다

최근 보고서에서 앤트로픽은 북한에서 기본 코딩 기술만으로 활동하는 단 한 명의 해커가 전 세계 17개 조직을 목표로 삼았다고 밝혔습니다. 이에는 정부 기관, 의료 제공자, 종교 기관, 심지어는 긴급 서비스도 포함되어 있습니다.

공격자는 Anthropic의 대리 코딩 도구인 Claude Code에 의존하여 이번 캠페인을 수행했습니다. 이 인공지능 시스템은 추출할 데이터를 조언하고, 협박 메시지를 작성하며, 심지어 랜섬 요구액을 제안하기도 했습니다- 때로는 $500,000 이상의 금액을 권장하기도 했습니다.

Anthropic는 지난 주에 발표한 공지에서 “우리는 이번 공격자가 인공지능을 이전보다는 더 많이 사용했다고 믿습니다,”라고 썼습니다. “이것은 AI를 활용한 사이버 범죄의 진화를 보여줍니다.”

자율적인 AI 해커 보조 도구

사이버 범죄자들은 수년 동안 AI로 실험을 해오고 있습니다. “바이브 해킹”이 다른 점은 이제 기술이 대부분의 어려운 일을 대신 해주고 있다는 것입니다.

Anthropic의 조사에 따르면, 악의적인 행위자들이 Claude Code를 여러 가지 방법으로 사용해왔습니다: 악성 코드 개발, 실시간 작전 동안 공격자를 단계별로 안내, 도난당한 대량의 데이터를 정리하고 분석, 심지어는 각 피해자의 취약점에 맞춰 맞춤형 협박 메시지를 자동화하는 등입니다.

한 가지 사례로, 영국의 한 사용자가 클로드에게 소프트웨어를 만들게 하는 데 성공했습니다. 그것은 단순한 소프트웨어가 아니라 상업용 랜섬웨어 제품이었습니다. 이 인공지능 모델은 CryptBB, Dread, Nulle 등의 포럼을 통해 랜섬웨어를 판매하는 데 도움이 되도록 설계된 랜섬웨어-서비스(RaaS) 플랫폼을 생성했습니다. 이들 포럼은 불법 활동을 가능하게 하는 것으로 알려져 있습니다.

가장 충격적인 부분은 무엇이었을까요? 사용자는 자신이 무엇을 하고 있는지 완전히 이해하지 못한 것 같았습니다. 그들은 자주 Anthropic의 인공지능 시스템에게 도움을 요청했습니다.

“이 작업은 ChaCha20 암호화, anti-EDR 기법, 그리고 Windows 내부 침투를 특징으로 하는 여러 랜섬웨어 변형의 개발을 포함하고 있다.”라고 연구에서 밝혔습니다. “가장 우려스러운 것은 행위자가 AI에 대한 의존성입니다. 그들은 복잡한 기술 구성 요소를 구현하거나 문제를 해결하는 데 AI의 도움 없이는 불가능해 보이지만, 능력 있는 악성 소프트웨어를 판매하고 있습니다.”

과거에는 숙련된 해커 팀이 수개월 또는 수년 동안에 걸쳐 완성해야 했던 작업들이 이제는 AI 모델이 단독으로 범죄를 저지르는 사이버 범죄자를 모든 과정에서 돕는다는 사실입니다.

AI 시스템이 조작되어 무기로 사용됨

AI 모델이 인간에게 미치는 해로운 영향은 이미 지난 몇 달 동안 심각하고 시급한 문제가 되었습니다. AI와 연관된 정신병과 자살에서부터 중독 패턴의 증가까지 다양합니다. 그러나 AI가 사람들에게 어떻게 해를 끼치는지에 많은 관심이 쏟아졌지만, 반대 상황에는 덜 집중되었습니다: 사람들이 AI 모델을 어떻게 조작하고, 그것을 다시 사용하여 다른 사람들에게 해를 끼치는 방법에 대해 말입니다.

몇 일 전, 펜실베니아 대학의 연구자들은 연구 결과를 발표하여 AI 모델이 놀랍도록 쉽게 설득과 아첨에 취약하다는 것을 밝혔습니다. 그들은 OpenAI의 GPT-4o mini와 같은 모델들이 사회 공학적 전략에 쉽게 당하고 “파라-휴먼”(para-human) 행동을 보여준다는 것을 발견했습니다. 즉, 이들은 인간의 행동을 훈련받기 때문에, 조작에 대한 인간의 약점도 복제한다는 것입니다.

GPT-4o는 사람들이 흔히 빠지는 유명한 설득의 원칙에 휘말려서 공유할 수 없는 정보를 공개하였습니다. 이 정보는 보다 전통적인 프롬프트를 통해 접근할 수 없는 데이터였습니다.

이에 대해, Anthropic은 AI 에이전트를 탈옥시키는 데 사용한 특정 프롬프트나, 시스템이 어떻게 복잡한 사이버 공격을 돕도록 조작되었는지에 대한 구체적인 내용을 공개하지 않았습니다. 그러나 최근의 연구들은 이러한 모델들이 대부분의 사람들이 생각하는 것보다 훨씬 더 취약할 수 있다는 것을 제시하고 있습니다. 행운을 빕니다—손가락을 꼬고—이제 기록된 취약점들이 더 이상 악용될 수 없을 것입니다.

에세이 작성에서 국제 조직 해킹까지

챗봇에 대한 가장 큰 걱정이 학생들이 에세이에서 부정행위를 하는 것이었던 것을 기억하시나요? 이제 AI 오용의 새로운 시대가 공식적으로 도래했습니다. 이 모델들이 훨씬 더 큰 영향을 미치는 악의적인 활동에 악용될 수 있게 되었습니다.

나쁜 행위자들은 이제 AI 모델을 복잡한 사이버 공격의 조종사로 사용하고 있습니다 – 기술적 전문 지식이 전혀 필요하지 않습니다.

Anthropic은 취약점을 패치하고 위험을 줄이며, 유사한 남용을 방지하기 위해 안전 조치를 강화했다고 대중에게 확신시켰습니다. 그러나 이 회사는 미래의 사용자나 다른 AI 모델이 어떻게 악용될 수 있는지 예측할 수 없다고도 인정했습니다. 위험은 항상 존재할 것입니다.

“이것은 단지 클로드만의 문제가 아닙니다,”라고 새로운 바이브 해킹 위협에 대한 비디오 발표에서 Anthropic의 한 직원이 말했습니다. “이것은 아마도 모든 LLM들에게 해당될 것입니다.”

우리는 아직 바이브 해킹을 인식하는 단계에 있으며, 시간이 갈수록 이런 경향이 확산될 위험이 증가하는 것 같습니다. 일부 전문가들은 해결책이 방어용 AI를 더 많이 사용하고, 모든 노력을 완화에 집중하는 데 있다고 제안합니다. 하지만 이 전략이 정말로 장기적으로 지속 가능할까요? AI 대 AI의 전쟁이 시작되는 것 같습니다.

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!

마음에 드셨다니 기쁩니다!

Trustpilot에 여러분의 의견을 남겨 주실 수 있으실까요? 리뷰는 WizCase에게 큰 힘이 됩니다. 감사합니다!

Trustpilot에 리뷰 남기기
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다