Image by Xavier Cee, from Unsplash
새로운 악성 소프트웨어, GPT-4를 사용해 즉석에서 공격 생성
보안 연구자들은 대규모 언어 모델(LLMs)을 사용하여 악성 행동을 실시간으로 생성하는 악성 소프트웨어의 초기 증거를 발견했습니다.
시간이 없으신가요? 여기에 간단한 사실들을 정리해 두었습니다:
- 연구자들은 LLM을 사용하여 런타임에서 코드를 생성하는 악성 소프트웨어를 발견했습니다.
- MalTerminal이라는 악성 소프트웨어는 GPT-4를 사용하여 랜섬웨어와 쉘을 구축했습니다.
- 기존의 바이러스 방어 도구들은 런타임에서 생성된 악성 코드를 감지하는데 어려움을 겪습니다.
이 연구 결과는 “LLM-Enabled Malware In the Wild.”이라는 제목의 발표에서 LABScon 2025에서 공개되었습니다.LLM-Enabled Malware In the Wild.
SentinelLABS에 따르면, “LLM을 활용한 악성 프로그램은 악의적인 로직이 코드에 내장되는 것이 아니라 런타임에 생성되므로, 탐지와 위협 헌팅에 새로운 도전 과제를 제기합니다.”
이러한 위협은 실행 기반 방법을 통해 작동하며, 해로운 코드가 실행 시간까지 존재하지 않기 때문에 표준 안티바이러스 시스템에서는 감지할 수 없습니다.
해당 팀은 이 종류의 악성 소프트웨어 중 아마도 가장 초기의 사례를 발견했다고 생각하며, 그것을 ‘MalTerminal’이라고 이름 붙였습니다. 이 시스템은 OpenAI의 GPT-4 API를 사용하여 파이썬 기반으로 랜섬웨어 공격과 리버스 쉘 공격을 생성합니다.
연구원들은 취약점 인젝터와 피싱 보조 도구 등 추가적인 공격 도구를 문서화하여 공격자들이 LLM으로 어떻게 실험하는지 보여줍니다.
“사실상, 악성 기능을 실시간으로 코드를 생성할 수 있는 LLM에게 위임하는 악성 소프트웨어는 탐지 엔지니어의 악몽처럼 보입니다”,라고 연구자들이 적었습니다.
다른 사례로는 ‘PromptLock’이 있습니다. 이는 2023년에 처음으로 AI 기반 랜섬웨어로 등장했고, 러시아 그룹 APT28와 연결된 PROMPTSTEAL이라는 악성 소프트웨어입니다. 연구자들은 PROMPTSTEAL이 284개의 HuggingFace API 키를 포함하고 있으며, 파일을 도난당하는 시스템 명령을 생성하기 위해 LLM을 사용했다고 설명합니다.
연구자들은 LLM 기능이 활성화된 악성 코드가 그들의 정교함에도 불구하고 “내장 API 키와 프롬프트”를 포함해야 하며, 이는 방어자들이 추적할 수 있는 흔적을 남긴다고 발견했습니다. 그들은 “이로 인해 LLM 기능이 활성화된 악성 코드는 특이한 궁금증을 유발하는 도구가 됩니다: 독특하게 능력이 있고, 적응 가능하면서도 동시에 취약한 도구입니다.”라고 썼습니다.
현재로서는 LLM 기능이 활성화된 악성 코드의 사용이 드물고 대부분 실험적인 것으로 나타났습니다. 그러나 전문가들은 적들이 그들의 방법을 세밀하게 개선하면, 이러한 도구들이 심각한 사이버 보안 위협이 될 수 있다고 경고하고 있습니다.