의견: 전쟁에서의 AI—전장으로의 조용한 전환을 보이는 기술 산업

Image generated using ChatGPT

의견: 전쟁에서의 AI—전장으로의 조용한 전환을 보이는 기술 산업

읽는 시간: 4 분

자율 무기, 기술 보안 정책, 그리고 군사에서의 AI 윤리에 대한 논란은 계속되고 있지만, 최근 몇 일 동안 주요한 변화가 있었습니다. OpenAI, DeepSeek, 심지어 Spotify의 창립자까지도 정부와 함께 방어 기술과 전략적 AI를 개발하기 위한 새로운 협정을 발표했습니다.

지난 몇 일 동안 전쟁에서 인공지능의 사용에 대한 긴장감이 고조되었습니다. 이번 달, 여러 기술 회사들이 방어 프로젝트를 개발하기 위해 정부와의 새로운 전략적 파트너십을 발표했습니다. 그리고 AI 분야에서 보통 그렇듯이, 군사 및 무기 개발에 대한 AI 접근 방식은 최근 몇 달 동안 급격하게 변화하고 있습니다.

몇 일 전, OpenAI와 미국 정부는 2억 달러의 계약을 통해 AI를 활용한 국방 도구 개발을 발표했습니다. 세부사항은 아직까지 알려지지 않았고, 관계자들은 주로 “관리 업무”가 주요 적용 분야라고 강조하고 있습니다.

한편, 스웨덴의 창업자이자 Spotify 창업자인 Daniel Ek은 독일 회사 Helsing에 대한 6억 유로의 투자 라운드를 주도했습니다. 소프트웨어 기술에 초점을 맞추던 Helsing은 이제 드론, 잠수함, 항공기 개발로 방향을 전환하고 있습니다.

로이터는 최근에 DeepSeek이 중국의 군사 및 정보 수집 작업을 도와주고 있다는 사실을 밝혔습니다. 한 미국 고위 관계자는 이 AI 스타트업이 미중 무역 전쟁에서의 도전과제를 해결하는데 도움을 주고 있으며, 그들의 오픈소스 모델이 중국 정부의 감시 작업을 지원하고 있다고 밝혔습니다.

기술 대기업들이 우리가 익숙하지 않은 방식으로 정부와 협력하고 있다—적어도 공개적으로는 그렇다—그들은 미국 육군 예비군에 고위 기술 경영진이 가입하는 등, 전통적으로 그들의 역할로 간주되지 않았던 활동에 참여하고 있습니다.

무슨 일이 일어나고 있는건가요?

언어의 변화

기술 회사들은 “우리는 절대 군사 목적으로 AI를 사용하지 않을 것”에서 “아마 우리 정책에서 이 조항을 조용히 삭제하겠다”로 변화했고, 이제는 “좋은 소식, 우리는 이제 정부를 위해 AI로 움직이는 무기를 만들고 있습니다!”라는 단계에 이르렀습니다.

적어도, 그것이 주의 깊은 관찰자에게 보이는 방식입니다.

얼마 전만 해도 AI 거인들은 군사용 애플리케이션을 지원하지 않겠다는 것을 자랑스럽게 선언했는데, 어떤 변화가 생겼습니다. 구글이 대표적인 예입니다.

2017년에는 미국 국방부가 Project Maven을 시작했습니다. 이 프로젝트는 알고리즘 전쟁 크로스-펑셔널 팀이라는 이름의 AI를 군사 작전에 통합하는 새로운 계획이었습니다. 처음에 구글은 이 프로젝트에 참여하였지만, 직원들의 윤리에 대한 우려로 인해 내부적인 반대가 일어나면서 잠시 회사가 물러나게 되었습니다.

지난해에는 군사 활동에 대한 추가적인 추진력이 발생하였고, 거의 200명의 Google DeepMind 직원들이 회사에 군사 계약을 포기하도록 촉구하였습니다.

“군사 및 무기 제조와의 어떠한 관련성이라도 우리가 윤리적이고 책임 있는 AI의 선두주자로서의 위치에 영향을 미치며, 우리의 사명 선언과 명시된 AI 원칙에 반합니다.”라고 우려하는 직원들이 적었습니다.

이번에는 구글의 대응 방식이 기다리며 조용히 AI 윤리 가이드라인을 업데이트하는 것이었습니다. 그들은 절대 해를 끼치는 AI 기술을 개발하지 않겠다는 부분을 삭제하였습니다. 구글의 AI 책임자인 데미스 하사비스는 세상이 변화함에 따라 그들도 적응하고 있다고 설명하였습니다.

구글의 사례는 AI와 군사적 용도 사이의 변화하는 관계를 보여주지만, 이는 방어 목표를 위한 서비스로 산업 전체가 이동하고 있다는 더 넓은 예시 중 하나일 뿐입니다.

AI가 군사와 방위 분야를 재구성하고 있습니다

프로젝트 Maven의 시작, 또는 일부 사람들이 이를 “미국 정부가 대규모 언어 모델이 전쟁에서 매우 유용할 수 있다는 것을 깨달았을 때”라고 부를지도 모릅니다, 미국 정부가 AI에 관심을 가진 이유 중 하나를 밝혔습니다.

AI 시스템이 대량의 데이터를 처리하고, 전장에서 객체를 식별하며, 이미지를 분석하는 능력은 특히 방위 부문에서 매력적입니다.

인간 능력을 초월한 향상된 분석

2022년부터 우크라이나와 러시아는 AI 시스템을 군사 작전에 통합하고 있습니다.

우크라이나 정부는 기술 회사들과 협력하여 대형 언어 모델을 최대한 활용할 수 있는 다양한 전략을 펼치고 있습니다. 최근에는 군사 과정을 위한 AI 모델을 훈련시키기 위해, 전장의 영상을 2백만 시간 가량 처리했습니다—이것은 228년치의 동영상에 해당합니다. 이렇게 많은 데이터를 분석하기 위해 얼마나 많은 사람들이 필요할까요?

“AI를 가르치려면 200만 시간(동영상)을 제공하면, 그것은 초자연적인 존재가 될 것입니다. 이것이 바로 AI에게 주는 식사입니다.”라고 비영리 디지털 시스템 OCHI의 창립자인 올렉산드르 디미트리예프가 설명했습니다. 이런 영상 자료는 무기 성능을 최적화하고 전투 전술을 향상시키는 데 도움을 줄 수 있습니다.

또 다른 AI 시스템인 Avengers는 우크라이나 국방혁신센터에서 개발한 AI 기반의 정보 플랫폼으로, 드론에서 실시간으로 전송되는 영상을 처리하고 매주 최대 1만 2천개의 적군 유닛을 식별합니다.

전장에서 뜨거운 감자: 드론

전장의 드론들- 종종 ‘살인 기계’라고 불리는 것들-은 현재 자율성, 정확성, 그리고 저렴한 비용 때문에 현대 전쟁에서 가장 가치 있는 기술 중 하나입니다. 이 로봇들은 전쟁 중인 국가들이 인간 파일럿의 위험을 감수하지 않고도, 전통적인 비용의 단편에 불과한 비용으로 고강도 공격을 수행할 수 있게 해줍니다.

올해 5월까지, 러시아는 우크라이나에 3,000대 이상의 Veter kamikaze 드론을 배치했습니다. 이 시스템들은 목표물을 식별하고 공격을 자동으로 실행할 수 있는 능력을 가지고 있습니다.

몇 일 전, 우크라이나 군은 고골-M 드론을 배치했습니다. 이 드론은 ‘어머니선’ 드론으로, 최장 300킬로미터를 이동하며 다른 드론들을 운반하고, 낮은 고도에서 비행하여 레이더를 피하며, 그 아래의 땅을 스캔하여 적군을 탐지하고 공격할 수 있습니다.

The Guardian에 따르면, 이 강력한 드론을 이용한 각 공격은 대략 $10,000가 들지만, 약간 더 오래된 기술을 사용하는 미사일 시스템은 $3백만에서 $5백만 사이가 들었을 것입니다.

새롭게 선보인 스타트업 Theseus는 빠르게 430만 달러를 모금했습니다. 이들의 젊은 창업자들이 지난해 X라는 소셜 미디어 플랫폼에 글을 올렸는데, 그들이 GPS 신호 없이도 비행할 수 있는 드론을 500달러 미만의 비용으로 제작했다고 밝혔습니다.

드론 기술은 아직 개발자들이 바라는 만큼 정밀하지 않습니다—특히 그 “가시성”을 줄이는 날씨 조건에 영향을 받을 때는 말이죠—그러나 이 분야에서 큰 잠재력을 보여주고 있습니다.

접근하기 어려운 글로벌 합의

전쟁 중인 국가나 세계의 주요 국가들만이 방어를 위한 새로운 AI 기반 기술을 개발하고 있는 것은 아닙니다. 많은 국가들이 수년 동안 AI를 사이버 보안 작업과 자율 무기 개발에 통합해 왔습니다. 이것은 단지 2025년의 현상만이 아닙니다.

2014년부터 유엔은 여러 나라들과 규제 체계에 대한 합의를 시도해 왔지만 성공하지 못했습니다.

최근에 90개 이상의 국가들이 뉴욕의 U.N. 총회에서 모여 AI가 제어하는 자율 무기와 그 규제에 대한 미래를 논의했습니다. 그들은 합의점에 도달하지 못했고, 총회는 2023년의 구속력 없는 결의를 통과시켰을 뿐입니다. 이 결의는 사살용 자율 무기 시스템(LAWS)에 대해 대처할 필요성을 경고하고 있습니다.

현재 가장 큰 논란은 세계적인 틀을 구현할 것인지 여부에 대한 것입니다. 많은 국가들은 개인 AI 기업과 국가를 규제할 수 있는 새로운 세계적인 가이드라인이 필요하다는 점에 동의하고 있습니다. 미국, 중국, 러시아, 인도와 같은 다른 국가들은 현재의 국제법을 유지하고, 각 국가의 현지 필요성이나 이해관계에 따라 독립적으로 새로운 법을 만드는 것을 선호합니다. 우리는 지난번에 캘리포니아 주 수준에서 새로운 AI 규정을 만드는 과정이 얼마나 혼란스러웠는지 목격했습니다. 캘리포니아에서.

기술 회사의 점점 더 확대되는 참여

Stop Killer Robots의 액티비스트인 로라 놀란은 자율 무기와 군사용 AI 소프트웨어 개발에 투자하는 기술 회사의 발전을 통제하는 안전 조치와 법적 틀의 부재를 우려하고 있습니다.

“우리는 일반적으로 산업이 자율 규제를 할 수 있다고 믿지 않습니다 … 방위나 기술 회사가 더 신뢰할 만하다는 이유는 없습니다,”라고 로이터에게 놀란이 전했습니다.

2024년에 연구자들은 중국 기관들이 Meta의 공개 소스 대형 언어 모델 Llama를 군사 목적으로 사용하고 있다는 것을 밝혔습니다. 미 국방부는 Scale AI와 Thunderforge 개발을 위한 계약을 체결하였습니다—이는 군사 결정 과정을 현대화하기 위한 AI 프로젝트입니다. 그리고 OpenAI는 군사 계약자인 Anduril과 협력하였습니다—미국 군, 영국, 우크라이나, 그리고 호주의 방어 동맹입니다.

유럽의 방위 스타트업 또한 성장하고 있습니다, 새로운 기술과 프로젝트 개발뿐 아니라 최고의 인재들을 끌어들이는 데에서도 발전을 이루고 있습니다.

복잡한 개발 과정

국가 방위 전략에 기술 회사들이 참여하는 것과 밀접하게 연관된 또 다른 요소는 민족주의입니다. 점점 더 많은 소프트웨어 개발자와 AI 전문가들이 단순히 높은 급여를 추구하기보다는 그들의 이상과 문화적 교향에 부합하는 프로젝트를 선택하고 있습니다. 일부는 Google이나 OpenAI와 같은 미국에서 제공하는 두 배의 급여를 받는 직장을 거절하고, 예를 들어 Helsing과 같은 유럽의 사업에 참여하기도 했습니다.

정치, 기술, 국가주의, 이념 전쟁의 선들이 점점 더 복잡하게 얽혀가고 있습니다—이를 통해 윤리, 도덕, 인간주의에 대한 고려사항들이 종종 뒤로 밀려나게 되죠.

최근의 발전 추세를 보면, 기술 거인들이 전 세계 국방 및 군사 노력에 엄청난 역할을 하고 있다는 것이 분명해지고 있습니다. 자율 무기와 전쟁 관련 기술의 발전은 초고속으로 이루어지고 있으며, 동시에 미래 인류를 위한 국제 합의와 규정을 설정하기 위한 유엔의 노력은 점점 더 축소되어 보입니다.

국제적인 합의 없이, 그리고 정부의 지원을 받아 AI를 사용해 세계에서 가장 강력한 무기를 개발하려는 야심찬 기술 회사들이 있다면 – 앞으로 몇 년 동안 인류의 미래는 어떻게 될까요?

이 기사가 마음에 드셨나요? 평가해 주세요!
정말 싫습니다 별로 좋아하지 않습니다 괜찮습니다 꽤 좋습니다! 정말 좋습니다!

마음에 드셨다니 기쁩니다!

Trustpilot에 여러분의 의견을 남겨 주실 수 있으실까요? 리뷰는 WizCase에게 큰 힘이 됩니다. 감사합니다!

Trustpilot에 리뷰 남기기
0 0명의 사용자가 투표
제목
코멘트
피드백을 주셔서 감사합니다