서론
인공지능(AI)은 21세기에서 중요한 기술로 자리 잡았으며, 의료, 상업, 과학 연구 등 다양한 분야에서 활용되고 있습니다. 그러나 의료 진단을 가능하게 하는 알고리즘이 자율 무기를 조종할 수 있고, 추천 엔진을 구동하는 기계 학습 시스템이 군사 목표를 식별할 수 있다는 사실은 주목할 만합니다. 이와 같은 이중 용도 특성, 즉 민간 목적을 위해 개발된 기술이 군사적 응용을 위해 재사용될 수 있다는 점은 AI를 세계적인 보안 역학에서 핵심적인 요소로 만들었습니다.
전략적 의미는 매우 중요합니다. 중국은 AI를 군사 현대화에 필수적인 요소로 보고 있으며, 인민해방군은 2030년까지 “알고리즘 전쟁”과 “네트워크 중심 전쟁” 능력을 배치할 계획입니다(국방부, 2024). 동시에 우크라이나와 가자 지구에서의 군사적 충돌은 AI 기반의 목표 지정 시스템이 실제로 배치되고 있음을 보여주었습니다. 국가들이 군사 AI 개발에 상당한 자원을 할당하면서, 이중 용도 AI 기술의 보안적 이점이 심각한 인도적 결과를 초래하지 않고 실현될 수 있는지에 대한 중요한 질문이 제기됩니다.
전환: 상업적 혁신이 군사 현대화를 이끈다
역사적으로 군사 연구와 개발은 기술 혁신을 주도했으며, 민간 응용은 부차적인 혜택으로 등장했습니다. 인터넷, GPS, 전자레인지 모두 국방 실험실에서 시작되었습니다. 그러나 이 동향은 반전되었습니다. 상업적으로 개발된 기술들이 이제 군사 부문에 점점 더 많이 “스핀 인”되고 있으며, 군대는 상업적 시장을 위해 처음 개발된 기술에 의존하고 있습니다.
이 전환은 글로벌 보안에 중요한 영향을 미칩니다. 냉전 시대처럼, 미국과 소련이 핵무기 개발을 국가 프로그램을 통해 통제했던 시기와 달리, AI 혁신은 주로 민간 부문 기업들, 기술 회사들, 그리고 대학 연구 기관들에서 이루어집니다. DARPA와 같은 기관들은 글로벌 신기술 개발에 영향을 미치며, 그들의 프로젝트는 전 세계적으로 연구 및 개발의 벤치마크를 설정하는 경우가 많습니다(Defense Advanced Research Projects Agency, 2024). 기술 역량의 확산은 전통적인 국가 통제 기반의 군사 생산에 의존한 군비 통제 체제를 복잡하게 만듭니다.
투자 규모도 상당합니다. 미국 국방부의 비밀 해제된 AI 투자액은 2016년 약 6억 달러에서 2024년 약 18억 달러로 증가했으며, 685개 이상의 활성 AI 프로젝트가 진행 중입니다(Defense One, 2024). 중국의 지출은 정확한 데이터가 없지만, 이 숫자를 초과할 가능성이 있습니다. 유럽 역시 비슷한 투자를 추구하고 있으며, EU는 유럽 방위 기금을 통해 15억 유로를 국방 관련 연구 개발에 할당하고 있습니다.
현대 전쟁에서의 이중 용도 응용
AI의 군사적 응용은 전쟁의 전략적 계획에서 전술적 실행에 이르기까지 다양한 영역을 포괄합니다. 현재의 배치에는 다음과 같은 것들이 포함됩니다:
– 정보 수집, 감시 및 정찰 (ISR): AI 시스템은 대량의 센서 데이터, 위성 이미지 및 신호 정보를 처리하여 인간 분석 능력을 초과하는 패턴을 식별합니다. 2024년에는 “중국의 상업적 및 학술적 AI 부문이 대형 언어 모델(LLM) 및 LLM 기반 추론 모델에서 진전을 이루었으며, 이로 인해 중국의 모델과 현재 필드를 선도하는 미국 모델 간의 성능 격차가 좁혀졌다”고 보고되었습니다(Department of Defense, 2024).
– 자율 무기 시스템: 자율 무기는 최소한의 인간의 감독으로 목표를 식별하고 추적하며 공격할 수 있습니다. 러시아-우크라이나 전쟁에서 드론은 현재 전장에서 약 70-80%의 사상자를 발생시키고 있습니다(Center for Strategic and International Studies, 2025). 우크라이나 공식들은 AI 운영 드론이 약 80%의 적중률을 달성할 수 있다고 예측했으며, 이는 수동 조종 시스템의 30-50%에 비해 현저히 높은 수치입니다(Reuters, 2024).
– 예측 유지보수 및 물류: 미 공군은 F-35 전투기의 Condition-Based Maintenance Plus 프로그램에 AI를 사용하여 센서 데이터를 분석하고 시스템 고장을 발생 전에 예측하여 다운타임과 운영 비용을 절감하고 있습니다.
– 지휘 및 통제: AI는 군 지휘관들이 전장 정보를 처리하고 옵션을 평가하는 데 도움을 주며, 인간의 능력을 초과하는 속도로 결정을 내릴 수 있도록 합니다. ‘프로젝트 컨버전스’는 AI, 고급 네트워킹, 센서 및 자동화를 육상, 공중, 해상, 사이버 및 우주 전쟁 도메인 전반에 걸쳐 통합하여 실시간 결정을 가능하게 합니다.
– 사이버 작전: AI는 자동화된 취약점 발견, 악성 코드 탐지 및 정교한 사회 공학 캠페인 등, 공격적 및 방어적 사이버 능력을 지원합니다.
가자와 우크라이나: 현대 갈등에서의 AI
최근 갈등은 AI의 군사적 응용과 관련된 인도적 비용을 실질적으로 보여주었습니다. 이스라엘의 Lavender 시스템은 최대 37,000개의 잠재적 하마스 관련 목표를 식별했다고 보고되었으며, 소스들은 오류율이 약 10%에 달한다고 주장합니다 (972 Magazine, 2024). 이스라엘 정보 장교는 “IDF는 목표가 집에 있을 경우, 망설임 없이 폭격을 시작했다. 가족의 집을 폭격하는 것이 훨씬 더 쉬웠다”고 말했습니다 (972 Magazine, 2024). 이 시스템은 공습을 가속화했지만, 동시에 민간인 피해를 초래했으며, 알고리즘의 책임 문제를 제기했습니다.
이 시스템의 설계에는 명백한 트레이드오프가 포함되어 있었습니다: 정확성보다는 속도와 규모를 우선시한 것입니다. 972 Magazine에 의해 인터뷰된 소스들에 따르면, 군은 Lavender가 표시한 각 하마스 소년 전투원에 대해 최대 15~20명의 민간인 사망을 승인했다고 합니다. 일부 경우에는 한 명의 고위급 지휘관을 암살하기 위해 100명 이상의 민간인이 죽임을 당할 수 있었습니다 (972 Magazine, 2024). 상업적 데이터로 훈련된 기초 모델은 인간이 가진 판단 능력이 부족하지만, 군사 목표에 적용될 경우 잘못된 긍정적 결과로 민간인이 죽게 됩니다. WhatsApp 메타데이터, Google Photos, 그리고 다른 상업적 플랫폼에서 수집된 데이터는 전투원의 상태와 일치하지 않을 수 있는 패턴을 기반으로 타겟 프로파일을 생성했습니다.
우크라이나는 다른 접근 방식을 구현했습니다, 드론 무리를 조정하고 숫적으로 우세한 적에 대한 방어 능력을 향상시키기 위해 AI를 사용하고 있습니다. 우크라이나의 카테리나 체르노호렌코 부국방 장관은 “현재 여러 개의 우크라이나 제조업체에서 제공하는 AI 강화 드론 시스템이 있다”고 밝혔습니다 (Reuters, 2024). 우크라이나는 2024년에 약 200만 대의 드론을 생산했으며, AI 지원 시스템은 수동 조종 드론에 비해 목표 달성 성공률이 70~80%에 달했습니다 (Center for Strategic and International Studies, 2025). 양측 모두 AI 기반의 타겟팅 시스템을 개발하여 실질적인 전투에서 경쟁하는 동태적 무기 경쟁을 만들어 가고 있습니다.
민간인 피해: 기술적 및 법적 한계
AI를 치명적인 군사 시스템에 통합하는 것은 기술적 신뢰성 외에도 인도적 우려를 불러일으킵니다. AI가 국제 인도법에 따라 전투원과 민간인을 구별해야 한다는 ‘구별의 원칙’을 준수할 수 없다는 점은 근본적인 도전 과제가 됩니다.
현재 AI 시스템은 합법적인 전쟁 수행에 필수적인 여러 능력을 결여하고 있습니다:
– 상황적 이해: AI는 전투원 상태를 결정짓는 복잡한 사회적, 문화적, 상황적 요소를 이해할 수 없습니다. 무기를 들고 있는 사람은 전투원이거나, 집을 방어하는 민간인이거나, 가축을 보호하는 양치기일 수 있습니다.
– 비례성 평가: 국제 인도법은 군사 공격이 민간인에 대한 불균형적인 피해를 일으키지 않아야 한다고 요구합니다. Human Rights Watch는 로봇 시스템이 이러한 미묘한 평가를 내릴 수 있을지 의문을 제기했습니다 (Human Rights Watch, 2024).
– 도덕적 판단: 기계는 인간의 존엄성에 대한 이해나 연민, 자비의 능력이 부족하여, 역사적으로 전쟁 중 참혹한 사건을 방지하는 데 도움을 주는 중요한 특성을 결여하고 있습니다.
– 책임: 자율 무기 시스템에서는 책임이 프로그래머, 제조업체, 운영자들 간에 분배되므로 개인 책임을 명확히 규명하기 어렵습니다. 한 전문가가 “AI, 기계 학습, 인간의 사고가 밀접한 생태계를 형성할 때, 인간의 통제 능력은 제한적이다. 인간은 컴퓨터가 하는 말을 신뢰하는 경향이 있는데, 특히 컴퓨터가 우리가 따라잡을 수 없을 만큼 빠르게 움직일 때 그렇다” (The Conversation, 2024)라고 언급했습니다.
위험은 특정 집단에까지 미칩니다. 역사적 기록에서 남성 전투자를 주로 포함한 데이터를 바탕으로 훈련된 자율 무기 시스템은 알고리즘적 편향을 일으킬 수 있습니다. Lavender 시스템의 경우, 분석에 따르면 “주요 방정식 중 하나는 ‘남성 = 전투원’이었다”고 하며, 이는 오바마 행정부의 드론 전쟁 작전 방식과 유사하다는 지적을 받았습니다 (The Conversation, 2024). 유색 인종 커뮤니티와 무슬림 인구는 차별적인 힘 배치의 역사적 패턴으로 인해 더 큰 위험에 처할 수 있습니다.
수출 통제 및 기술 이전의 도전 과제
AI의 전략적 중요성을 인식한 각국 정부는 수출 통제 체제를 시행하고 있습니다. 미국 산업안보국(Bureau of Industry and Security)은 이제 고급 컴퓨팅 칩과 AI 모델 가중치의 수출에 대한 라이센스를 요구하며, 가장 진보된 모델의 저장을 보호하기 위한 보안 조건을 부과하고 있습니다.
그러나 이러한 통제에는 본질적인 긴장이 존재합니다. 지나치게 광범위한 제한은 합법적인 연구와 상업적 혁신을 방해할 위험이 있습니다. 분석에 따르면, AI 기술이 과도하게 통제되면 미국의 대학들이 AI 연구를 수행하는 데 어려움을 겪게 되어, 결국 미국 AI 생태계가 덜 강력해질 수 있다는 우려가 제기되고 있습니다. 반대로 통제가 부족하면 적대적인 국가들이 첨단 기술을 획득할 수 있게 됩니다.
수출 통제의 효과성은 불확실합니다. 2024년에는 수십만 개의 칩이 수백만 달러에 달하는 가치를 가지고 중국으로 밀수되었으며, 이는 외국 기업들이 다양한 유통업체와 허위 라벨링 기법을 사용한 결과입니다 (Oxford Analytica, 2025). 중국의 DeepSeek 모델은 미국 시스템에 근접하는 성능을 달성했다고 보고되었으며, 이 모델들은 수출 제한을 우회한 칩으로 훈련된 것으로 알려졌습니다.
국제적 거버넌스: 분열과 경쟁하는 프레임워크들
국제 사회는 이중 용도 AI에 대한 일관된 거버넌스 체계를 개발하는 데 어려움을 겪고 있습니다. 전 세계적으로 일관된 규제 접근 방식보다는 각국의 정책, 다자간 협정, 고위급 회담, 선언, 프레임워크 및 자발적 약속들이 등장했습니다.
여러 국제 포럼이 AI 거버넌스를 다뤘습니다:
– 유엔 사무총장은 AI 자문위원회를 설립하고, 2026년까지 인간 통제 없는 치명적인 자율 무기 시스템을 금지하는 법적 구속력을 가진 조약 체결을 촉구했습니다.
– 2013년부터 일부 진전에도 불구하고, 특정 전통적인 무기들에 관한 협약 하에 자율 무기 시스템에 대한 전문가 그룹(GGE)이 논의해 왔습니다.
– NATO는 2024년에 수정된 AI 전략을 발표했으며, 군사 작전에서의 책임 있는 사용과 AI의 신속한 채택을 위한 기준을 수립했습니다.
– EU는 2023년 AI 법안을 채택했으며, 이 법안은 군사적 용도와 국가 안보는 그 범위에서 제외한다고 명시하고 있습니다.
이와 같은 분열된 환경은 지정학적인 분열을 반영합니다. AI가 경쟁의 핵심 요소로 간주됨에 따라 미국은 자국의 이념적 동조국들과 함께 중국과 대립하며, 그 안보 목적을 포함한 정책을 추진하고 있습니다. 중국은 일대일로(Belt and Road)와 같은 이니셔티브를 통해 자국의 거버넌스 비전을 홍보하며, 기술 표준을 인프라와 함께 수출하고 있습니다.
전략적 안정성에 대한 영향
AI는 전략적 안정성에 문제를 야기합니다. 자율 무기는 많은 전투 역할에서 인간 군인을 대체할 수 있어, 공격 전쟁의 인간적 비용을 줄이고 정치적 비용을 경감시킬 수 있습니다. 이는 동등한 상대와의 분쟁에서 각국이 중요한 국내 피해 없이 승리할 수 있다고 믿게 하여 갈등의 빈도를 높일 수 있습니다. 비동등한 상대 간의 분쟁에서는 희생자의 감소가 공격 전쟁에 대한 국내 반대 의견을 더욱 줄여줍니다.
이러한 영향은 전통적인 전쟁을 넘어섭니다. 무장된 완전 자율 드론 떼는 인간의 통제 없이 대규모 피해를 입히는 잠재력을 가지고 있으며, 이는 저강도 핵무기와 비교될 수 있는 대량살상무기가 될 가능성이 있습니다. 이러한 시스템을 위한 기술적 장벽은 부품이 상용화되면서 점차 낮아지고 있습니다.
AI는 또한 핵 안정을 복잡하게 만듭니다. AI 강화 센서와 데이터 처리의 발전은 이동식 미사일 발사기와 잠수함을 감지하는 능력을 개선하여 제2의 보복 능력을 약화시킬 수 있습니다. 이러한 보복 보장 약화는 위기 상황에서 선제 공격을 유도할 수 있습니다. 동시에, 핵 명령 및 통제 시스템을 관리하는 AI는 사고, 잘못된 계산, 혹은 무단 발사를 초래할 수 있는 위험을 내포하고 있습니다.
윤리적 틀의 한계
전쟁에서의 AI 통합은 전통적인 윤리적 틀에 큰 부담을 준다. 정의로운 전쟁 이론(Just War Theory)은 전투자가 자신의 행동에 대해 도덕적 책임을 지고, 전투원과 민간인을 구별할 수 있으며, 비례적인 힘을 적용해야 한다고 요구한다. 자동화된 편향과 기술적 매개는 AI 기반 타겟팅 시스템을 운영하는 사람들의 도덕적 행위 능력을 약화시켜, 그들의 윤리적 의사결정 능력을 감소시킨다.
운영자가 알고리즘 추천을 표시하는 화면을 통해 타겟팅과 상호작용할 때, 즉각적인 관찰이 아니라 알고리즘의 제안을 받아들이는 방식에서 심리적 거리가 커진다. 이러한 매개는 살인을 일종의 관료적인 과정으로 변형할 위험이 있다. 운영자는 결정을 내리는 도덕적 주체라기보다는 알고리즘적 제안을 승인하거나 거부하는 기술자가 되어버린다.
또한, 특히 벤처 자본의 투자와 같은 산업적 동향은 군사 AI와 관련된 담론에 영향을 미쳐 전쟁에서의 책임 있는 AI 사용에 대한 인식을 변화시킨다. 상업적 인센티브가 군사적 응용과 일치할 때, 책임 있는 혁신과 무책임한 확산 사이의 경계가 모호해진다. 민간 시장을 위한 AI를 개발하는 기업들은 종종 충분한 윤리적 논의 없이 국방 계약으로 확장하는 압박을 받는다.
결론
Dual-use AI 기술은 국제 안보에 대한 기회와 위험을 동시에 제공한다. 한 경로는 알고리즘 전쟁의 정상화, 전략적 안정성을 해치는 자율 무기들 간의 군비 경쟁, 그리고 민간인 피해를 초래하는 국제적 거버넌스 부족으로 이어질 수 있다. 또 다른 경로는 가장 위험한 응용을 제한하면서 유익한 사용을 허용하는 국제적인 협력을 포함할 수 있다.
거버넌스 틀을 확립할 시간은 제한적이다. AI 능력은 급속히 발전하고 있으며, 자율 무기의 광범위한 확산은 정책 반전을 훨씬 더 어렵게 만들 것이다. 이 도전은 핵 비확산과 유사하지만, 국가가 통제하는 프로그램이 아닌 상업적 인센티브에 의해 더 빠르게 진행되고 있다.
AI가 Dual-Use 기술이기 때문에, 기술 발전은 경제적 및 안보적 이점을 제공할 수 있다. 이 현실은 민주주의 국가들이 일방적인 자제를 취하면 권위주의적인 경쟁자들에게 유리한 상황을 허용하게 된다는 것을 의미한다. 그러나 통제되지 않은 경쟁은 모든 당사자에게 부정적인 결과를 초래할 위험이 있다.
다양한 주체들이 구체적인 조치를 취할 필요가 있다. 국가들은 유엔의 특정 관습적 무기 협약과 같은 포럼을 통해 다자간 협정을 강화하고, 인간의 의미 있는 제어 없이 자율 무기에 대한 구속력 있는 제한을 설정해야 한다. NATO와 지역 안보 동맹은 AI 윤리 기준을 조화시키고, 군사적 AI 배치에 대한 검증 메커니즘을 만들어야 한다. 군사 기관은 자율적 치명적 시스템에 대해 “인간의 통제” 요건을 의무화하고, AI 기반 목표 결정에 대한 명확한 책임 체계를 설정해야 한다.
Dual-use AI 시스템을 개발하는 기술 회사들은 윤리적 보호 조치를 구현하고, 상업적 출시 전에 철저한 위협 모델링을 수행할 책임이 있다. 산업 연합체는 군사 AI 응용에 대한 투명성 기준을 설정하고, 독립적인 감사 메커니즘을 만들어야 한다. 대학과 연구 기관은 기술 교육 프로그램에 AI 윤리와 국제 인도법을 통합해야 한다.
수출 통제 체제는 미국, EU 및 동맹국 간의 협력을 필요로 하며, 규제 남용을 방지하면서도 합법적인 연구를 억제하는 과잉 규제를 피해야 한다. 민주주의 국가들은 군사 AI가 엄격한 윤리적 및 법적 제한 내에서 개발될 수 있음을 보여주는 리더십을 발휘해야 하며, 이는 합법적인 안보 응용을 불안정한 무기 확산과 구별하는 기준을 설정해야 한다.
알렉산더 샬렌베르크(Alexander Schallenberg) 오스트리아 외무장관이 말했듯이, 이는 현재 세대의 오펜하이머 순간(Oppenheimer Moment)으로, Dual-use AI가 핵무기처럼 군사적 응용에 대해 집단적인 자제를 요구하는 기술임을 인식해야 한다.
향후 몇 년 내에 내려질 정책 선택은 장기적인 결과를 가져올 것이다. 이는 AI가 인간 발전을 위한 도구가 될지, 알고리즘 전쟁의 도구가 될지를 결정하게 된다. 기술은 존재하지만, 정책 틀은 아직 마련되지 않았다. 주요 행위자들은 확인되었고, 이제 중요한 질문은 그들이 확산이 되돌릴 수 없는 지경에 이르기 전에 행동할 정치적 의지를 가지고 있느냐는 것이다.
