Soldier in engineering role uses AI application on laptop to manage server hub systems. Army commander reviews secret intelligence information using artificial intelligence in data center, camera A

Двух-целевые технологии искусственного интеллекта в обороне: стратегические последствия и риски безопасности

Введение

Искусственный интеллект стал ключевой технологией XXI века, находя применение в здравоохранении, коммерции и научных исследованиях. Однако те же алгоритмы, которые обеспечивают медицинскую диагностику, могут направлять автономные вооружённые системы, а те же системы машинного обучения, которые лежат в основе рекомендательных механизмов, способны выявлять военные цели. Такая двойная направленность – когда технологии, разработанные для гражданских целей, могут быть переориентированы на военное применение – сделала ИИ центральным элементом формирующейся глобальной архитектуры безопасности.

Стратегические последствия этого процесса весьма значительны. Китай рассматривает ИИ как основу военной модернизации: Народно-освободительная армия планирует к 2030 году развернуть возможности “алгоритмической войны” и “сете-центрической войны” (Министерство обороны США, 2024). Одновременно военные конфликты на Украине и в Газе продемонстрировали практическое применение систем наведения целей, основанных на ИИ. По мере того как государства направляют значительные ресурсы на развитие военного ИИ, возникает ключевой вопрос: возможно ли реализовать преимущества безопасности, связанные с двух-целевыми технологиями ИИ, не порождая при этом серьёзных гуманитарных последствий.

Обратный процесс: коммерческие инновации как движущая сила военной модернизации

Исторически военные исследования и разработки стимулировали технологические инновации, а гражданские применения возникали как вторичный эффект – явление, известное как “спин-офф”. Интернет, GPS и микроволновые печи берут своё начало в оборонных лабораториях. Сегодня эта динамика изменилась на противоположную. Технологии, изначально разработанные в коммерческом секторе, всё чаще “проникают” в сферу обороны, и вооружённые силы становятся зависимыми от решений, созданных прежде всего для гражданских рынков.

Этот разворот имеет серьёзные последствия для глобальной безопасности. В отличие от эпохи холодной войны, когда Соединённые Штаты и Советский Союз контролировали разработку ядерного оружия через государственные программы, инновации в области ИИ сегодня происходят преимущественно в частных компаниях, технологических фирмах и университетских исследовательских учреждениях. Такие организации, как DARPA, оказывают значительное влияние на развитие передовых технологий в глобальном масштабе, при этом их проекты нередко задают ориентиры для научно-исследовательских и опытно-конструкторских работ по всему миру (Defense Advanced Research Projects Agency, 2024). Такое распространение технологических возможностей усложняет традиционные механизмы контроля над вооружениями, основанные на государственном контроле военного производства.

Масштабы инвестиций весьма значительны. Объём неклассифицированных инвестиций Министерства обороны США в ИИ увеличился примерно с 600 миллионов долларов в 2016 году до около 1,8 миллиарда долларов в 2024 году, при этом в работе находится более 685 активных проектов в области ИИ (Defense One, 2024). Расходы Китая могут превышать эти показатели, однако точные данные остаются недоступными из-за непрозрачности китайского оборонного бюджета. Европа также осуществляет сопоставимые вложения: Европейский союз направил 1,5 миллиарда евро на оборонные исследования и разработки в рамках таких инициатив, как Европейский оборонный фонд.

Двух-целевые применения в современной войне

Военные применения ИИ охватывают весь спектр ведения войны – от стратегического планирования до тактического исполнения. Современные развертывания включают:

Разведка, наблюдение и рекогносцировка (ISR): Системы ИИ обрабатывают огромные объёмы данных с датчиков, спутниковых изображений и радиоэлектронной разведки, выявляя закономерности, выходящие за пределы человеческих аналитических возможностей. В 2024 году “коммерческий и академический секторы ИИ Китая добились прогресса в области больших языковых моделей (LLM) и моделей рассуждения на их основе, что сократило разрыв в производительности между китайскими моделями и моделями США, которые в настоящее время лидируют в данной области”, что позволило проводить более сложный разведывательный анализ (Министерство обороны США, 2024).

Автономные системы вооружений: Автономное оружие способно самостоятельно выявлять, отслеживать и поражать цели при минимальном участии человека. В ходе российско-украинской войны беспилотники сегодня обеспечивают примерно 70-80 % потерь на поле боя (Центр стратегических и международных исследований, 2025). Украинские официальные лица прогнозировали, что беспилотники с видом от первого лица, управляемые ИИ, могут достигать точности поражения около 80 % по сравнению с 30-50 % у систем с ручным управлением (Reuters, 2024).

Прогнозное техническое обслуживание и логистика: Военно-воздушные силы США используют ИИ в программе Condition-Based Maintenance Plus для истребителей F-35, анализируя данные с датчиков с целью прогнозирования отказов систем до их возникновения, что снижает время простоя и эксплуатационные расходы.

Командование и управление: ИИ помогает военным командирам обрабатывать информацию с поля боя и оценивать возможные варианты действий со скоростью, превышающей человеческие возможности. Проект Project Convergence объединяет ИИ, передовые сетевые технологии, датчики и автоматизацию во всех доменах ведения войны (суша, воздух, море, киберпространство и космос), обеспечивая синхронизированное принятие решений в реальном времени.

Кибероперации: ИИ лежит в основе как наступательных, так и оборонительных кибервозможностей – от автоматизированного поиска уязвимостей до обнаружения вредоносного программного обеспечения и проведения сложных кампаний социальной инженерии.

Газа и Украина: ИИ в современных конфликтах

Недавние конфликты продемонстрировали практическое применение ИИ в военной сфере, а также связанные с этим гуманитарные издержки. Сообщается, что израильская система Lavender выявила до 37 000 потенциальных целей, связанных с ХАМАС, при этом, по утверждениям источников, уровень ошибок составлял около 10 процентов (972 Magazine, 2024). Один из офицеров израильской разведки заявил: “ЦАХАЛ без колебаний наносил удары по целям в жилых домах, выбирая это в качестве первого варианта. Гораздо проще разбомбить дом семьи” (972 Magazine, 2024). Система ускорила проведение авиаударов, но одновременно способствовала росту числа жертв среди гражданского населения, что поставило вопрос об алгоритмической ответственности.

Конструкция системы предполагала осознанные компромиссы: приоритет скорости и масштабируемости над точностью. Согласно источникам, опрошенным журналом 972 Magazine, армия санкционировала гибель до 15-20 гражданских лиц на каждого рядового боевика ХАМАС, отмеченного системой Lavender, а в отдельных случаях допускалась гибель более 100 гражданских лиц ради ликвидации одного высокопоставленного командира (972 Magazine, 2024). Базовые модели, обученные на коммерческих данных, не обладают теми рассудочными способностями, которые присущи человеку, однако при применении к военному целеуказанию ложные срабатывания приводят к гибели мирных жителей. Данные, полученные из метаданных WhatsApp, Google Photos и других коммерческих платформ, использовались для создания профилей целей на основе поведенческих паттернов, которые не всегда соответствуют статусу комбатанта.

Украина применила иной подход, используя ИИ для координации роев беспилотников и усиления оборонительных возможностей против численно превосходящего противника. Заместитель министра обороны Украины Катерина Черногоренко заявила, что “в настоящее время на рынке существует несколько десятков решений от украинских производителей” в области беспилотных систем с поддержкой ИИ, поставляемых вооружённым силам (Reuters, 2024). В 2024 году Украина произвела около 2 миллионов беспилотников, при этом системы с поддержкой ИИ достигали показателей успешного поражения целей на уровне 70-80 процентов по сравнению с 10-20 процентами у беспилотников с ручным управлением (Центр стратегических и международных исследований (Center for Strategic and International Studies), 2025). Обе стороны конфликта разработали системы целеуказания на базе ИИ, что сформировало динамику оперативной гонки вооружений с непосредственными последствиями на поле боя.

Вред гражданскому населению: технические и правовые ограничения

Интеграция ИИ в летальные военные системы порождает гуманитарные опасения, выходящие за рамки технической надёжности. Неспособность ИИ обеспечивать принцип различения, требующий защиты гражданского населения путём отличия комбатантов от некомбатантов в соответствии с международным гуманитарным правом, создаёт фундаментальные проблемы.

Современные системы ИИ не обладают рядом ключевых возможностей, необходимых для ведения войны в правовом поле:

Контекстуальное понимание: ИИ не способен осмысливать сложные социальные, культурные и ситуационные факторы, определяющие статус комбатанта. Человек, несущий оружие, может быть боевиком, гражданским лицом, защищающим свой дом, или пастухом, охраняющим скот.

Оценка пропорциональности: Международное гуманитарное право требует, чтобы военные атаки не причиняли несоразмерного ущерба гражданскому населению. Как отмечает Human Rights Watch, остаётся сомнительным, способны ли роботизированные системы осуществлять столь тонкие и многомерные оценки (Human Rights Watch, 2024).

Моральное суждение: Машины лишены способности к состраданию, милосердию и пониманию человеческого достоинства – качеств, которые исторически служили сдерживающими факторами против военных преступлений.

Ответственность: В случае автономных систем вооружений ответственность распределяется между программистами, производителями и операторами, что затрудняет установление индивидуальной вины. Как отметил один из экспертов, “когда ИИ, машинное обучение и человеческое мышление образуют тесно связанную экосистему, возможности человеческого контроля оказываются ограниченными. Люди склонны доверять тому, что говорят компьютеры, особенно когда они работают слишком быстро, чтобы мы могли за ними уследить” (The Conversation, 2024).

Риски особенно велики для отдельных групп населения. Автономные системы вооружений, обученные на данных, в которых преобладают мужчины-комбатанты из исторических записей, могут формировать алгоритмические искажения. В случае системы Lavender анализ показывает, что “одним из ключевых уравнений было ‘мужчина равен боевик’ ”, что перекликается с подходом администрации Обамы во время операций беспилотной войны (The Conversation, 2024). Сообщества небелого населения и мусульманские группы сталкиваются с повышенными рисками с учётом исторических моделей дискриминационного применения силы.

Экспортный контроль и проблемы передачи технологий

Осознавая стратегическую значимость ИИ, правительства внедрили режимы экспортного контроля. Бюро промышленности и безопасности США (Bureau of Industry and Security) в настоящее время требует получения лицензий на экспорт передовых вычислительных чипов и весов моделей ИИ, вводя требования безопасности для защиты хранения наиболее совершенных моделей.

Эти меры сталкиваются с внутренними противоречиями. Слишком широкие ограничения могут затормозить законные научные исследования и коммерческие инновации. Анализ показывает, что при чрезмерно жёстком контроле технологий ИИ американские университеты могут столкнуться с трудностями в проведении исследований, что приведёт к ослаблению экосистемы ИИ в США. В то же время недостаточный контроль позволяет потенциальным противникам получать доступ к передовым возможностям.

Эффективность экспортного контроля остаётся неопределённой. В 2024 году сотни тысяч чипов общей стоимостью в миллионы долларов были нелегально ввезены в Китай через подставные компании, разнообразные цепочки поставок и методы неправильной маркировки (Oxford Analytica, 2025). Сообщается, что модели DeepSeek, разработанные в Китае и продемонстрировавшие характеристики, близкие к американским системам, обучались на чипах, полученных в обход экспортных ограничений.

Международное управление: фрагментация и конкурирующие подходы

Международное сообщество испытывает серьёзные трудности при попытках выработать согласованные механизмы управления двухцелевым ИИ. Вместо целостного глобального режима регулирования сформировался набор национальных политик, многосторонних соглашений, саммитов высокого уровня, деклараций, рамочных документов и добровольных обязательств.

Вопросы управления ИИ рассматривались на нескольких международных площадках:

• Генеральный секретарь ООН создал Консультативный совет по ИИ и призвал к заключению юридически обязывающего договора о запрете летальных автономных систем вооружений без человеческого контроля, который должен быть принят к 2026 году.

• Группа правительственных экспертов по летальным автономным системам вооружений ведёт обсуждения в рамках Конвенции о некоторых видах обычного оружия с 2013 года, однако с ограниченным практическим прогрессом.

• НАТО в 2024 году опубликовала обновлённую стратегию в области ИИ, установив стандарты ответственного использования и ускоренного внедрения ИИ в военные операции.

• Акт ЕС об искусственном интеллекте, принятый в 2023 году, прямо исключает военные приложения и вопросы национальной безопасности из сферы своего действия.

Эта фрагментированная картина отражает геополитические разногласия. Осознание центральной роли ИИ в международной конкуренции побудило США позиционировать себя лидером идеологически близких государств в противовес Китаю, в том числе в сфере безопасности. Китай, в свою очередь, продвигает собственное видение управления через такие инициативы, как “Один пояс – один путь”, экспортируя технологические стандарты параллельно с инфраструктурными проектами.

Последствия для стратегической стабильности

ИИ создаёт серьёзные вызовы для стратегической стабильности. Автономные системы вооружений позволяют заменять людей машинами во многих боевых ролях, снижая человеческие потери и, следовательно, политическую цену ведения наступательной войны. Это может увеличить частоту конфликтов между равными по силе противниками, каждый из которых будет считать, что способен одержать победу без значительных потерь среди собственного населения. В конфликтах между неравными противниками снижение потерь ещё больше ослабляет внутреннее сопротивление агрессивным войнам.

Последствия выходят за рамки обычных вооружённых столкновений. Вооружённые полностью автономные рои беспилотников способны сочетать массовый ущерб с отсутствием человеческого контроля и потенциально могут превратиться в оружие массового поражения, сопоставимое с ядерными средствами малой мощности. Технические барьеры для создания таких систем снижаются по мере того, как их компоненты становятся коммерчески доступными.

ИИ также усложняет ядерную стабильность. Прорывы в области датчиков и обработки данных с использованием ИИ могут подорвать возможности ответного удара за счёт повышения эффективности обнаружения мобильных пусковых установок и подводных лодок. Ослабление гарантированного возмездия может стимулировать нанесение превентивных ударов в условиях кризиса. Одновременно применение ИИ в системах управления и контроля ядерного оружия создаёт риски аварий, ошибочных расчётов или несанкционированных пусков.

Ограничения этических рамок

Интеграция ИИ в ведение войны ставит под напряжение традиционные этические концепции. Теория справедливой войны требует, чтобы участники боевых действий сохраняли моральную ответственность за свои поступки, обладали способностью отличать комбатантов от гражданских лиц и применяли соразмерную силу. Однако эффект автоматизационного смещения и технологическое посредничество ослабляют моральную субъектность операторов систем целеуказания с поддержкой ИИ, снижая их способность к этическому принятию решений.

Когда операторы взаимодействуют с целями через экраны, отображающие алгоритмические рекомендации, а не через непосредственное наблюдение, психологическая дистанция возрастает. Такое посредничество грозит превращением процесса убийства в бюрократическую процедуру. Оператор становится не столько моральным агентом, принимающим решения, сколько техником, утверждающим или отклоняющим предложения алгоритма.

Кроме того, динамика отрасли, в частности влияние венчурного капитала, формирует дискурс вокруг военного ИИ и влияет на представления об ответственном использовании ИИ в войне. Когда коммерческие стимулы совпадают с военными применениями, границы между ответственной инновацией и безрассудным распространением технологий размываются. Компании, разрабатывающие ИИ для гражданских рынков, сталкиваются с давлением выходить на оборонные контракты, зачастую без достаточного этического осмысления.

Заключение

Двухцелевые технологии ИИ несут как возможности, так и риски для международной безопасности. Один из возможных сценариев ведёт к нормализации алгоритмической войны в крупных масштабах, гонке вооружений в области автономных систем, подрывающей стратегическую стабильность, и неадекватному международному управлению, результатом которого становится ущерб гражданскому населению. Альтернативный путь предполагает международное сотрудничество, направленное на ограничение наиболее опасных применений при одновременном сохранении полезных возможностей.

Временные рамки для создания механизмов управления ограничены. Возможности ИИ развиваются стремительно, и широкое распространение автономного оружия сделает пересмотр политических решений значительно более сложным. Этот вызов напоминает проблему ядерного нераспространения, но развивается с большей скоростью и движим коммерческими стимулами, а не программами, полностью контролируемыми государством.

Поскольку ИИ является двухцелевой технологией, технический прогресс способен приносить экономические и оборонные выгоды. Это означает, что одностороннее самоограничение со стороны демократических государств привело бы к утрате преимуществ в пользу авторитарных конкурентов. Однако неконтролируемая конкуренция чревата негативными последствиями для всех сторон.

Необходимы конкретные действия со стороны множества акторов. Государства должны укреплять многосторонние соглашения через такие площадки, как Конвенция ООН о некоторых видах обычного оружия, с целью введения обязательных ограничений на автономные системы вооружений без значимого человеческого контроля. НАТО и региональные альянсы безопасности должны гармонизировать этические стандарты ИИ и создать механизмы верификации для военных развёртываний ИИ. Военные институты обязаны внедрить обязательные требования “человек в контуре” для летальных автономных систем и установить чёткие цепочки ответственности за решения по целеуказанию, принимаемые с использованием ИИ.

Технологические компании, разрабатывающие двухцелевые системы ИИ, несут ответственность за внедрение этических предохранителей и проведение тщательного анализа угроз до коммерческого выпуска продуктов. Отраслевые альянсы должны установить стандарты прозрачности для военных применений ИИ и создать независимые механизмы аудита. Университеты и исследовательские институты обязаны интегрировать этику ИИ и международное гуманитарное право в программы технической подготовки.

Режимы экспортного контроля требуют координации между США, ЕС и союзными государствами для предотвращения регуляторного арбитража при одновременном недопущении чрезмерных ограничений, подавляющих легитимные исследования. Демократические правительства должны подать пример, демонстрируя, что военный ИИ может разрабатываться в рамках строгих этических и правовых норм, формируя стандарты, которые чётко отделяют законные задачи безопасности от дестабилизирующего распространения вооружений.

Как отметил министр иностранных дел Австрии Александр Шалленберг, речь идёт об “моменте Оппенгеймера” для нынешнего поколения – осознании того, что двухцелевой ИИ, подобно ядерному оружию, представляет собой технологию, чьи военные применения требуют коллективного самоограничения.

Политические решения, принятые в ближайшие годы, будут иметь долгосрочные последствия. Они определят, станет ли ИИ инструментом человеческого прогресса или средством алгоритмической войны. Технология уже существует; политическая рамка ещё только предстоит создать. Участники процесса известны – остаётся вопрос, обладают ли они политической волей действовать до того, как распространение технологий станет необратимым.

Ссылки
972 Magazine (2024) 'Lavender': The AI machine directing Israel's bombing spree in Gaza. https://www.972mag.com/lavender-ai-israeli-army-gaza/ Center for Strategic and International Studies (2024) Where the Chips Fall: U.S. Export Controls Under the Biden Administration from 2022 to 2024. https://www.csis.org/analysis/where-chips-fall-us-export-controls-under-biden-administration-2022-2024 Center for Strategic and International Studies (2025) Ukraine's Future Vision and Current Capabilities for Waging AI-Enabled Autonomous Warfare. https://www.csis.org/analysis/ukraines-future-vision-and-current-capabilities-waging-ai-enabled-autonomous-warfare Defense One (2023) The Pentagon's 2024 Budget Proposal, In Short. https://www.defenseone.com/policy/2023/03/heres-everything-we-know-about-pentagons-2024-budget-proposal/383892/ Department of Defense (2024) Military and Security Developments Involving the People's Republic of China 2024. https://media.defense.gov/2024/Dec/18/2003615520/-1/-1/0/MILITARY-AND-SECURITY-DEVELOPMENTS-INVOLVING-THE-PEOPLES-REPUBLIC-OF-CHINA-2024.PDF Foreign Policy Research Institute (2024) Breaking the Circuit: US-China Semiconductor Controls. https://www.fpri.org/article/2024/09/breaking-the-circuit-us-china-semiconductor-controls/ Human Rights Watch (2024) A Hazard to Human Rights: Autonomous Weapons Systems and Digital Decision-Making. https://www.hrw.org/report/2025/04/28/a-hazard-to-human-rights/autonomous-weapons-systems-and-digital-decision-making National Defense Magazine (2024) Pentagon Sorting Out AI's Future in Warfare. https://www.nationaldefensemagazine.org/articles/2024/10/22/pentagon-sorting-out-ais-future-in-warfare Queen Mary University of London (2024) Gaza war: Israel using AI to identify human targets raising fears that innocents are being caught in the net. https://www.qmul.ac.uk/media/news/2024/hss/gaza-war-israel-using-ai-to-identify-human-targets-raising-fears-that-innocents-are-being-caught-in-the-net.html Reuters (2024) Ukraine rolls out dozens of AI systems to help its drones hit targets. https://euromaidanpress.com/2024/10/31/reuters-ukraine-rolls-out-dozens-of-ai-systems-to-help-its-drones-hit-targets/
First published in: World & New World Journal
Mayukh Dey

Mayukh Dey

Маюх Дей — выпускник факультета политологии (с отличием), проявляющий глубокий академический интерес к международным отношениям, глобальной политике и современным проблемам безопасности. Его академическая подготовка обеспечила прочную основу в политической теории, рамках международных отношений и геополитическом анализе, что позволяет ему взаимодействовать со сложными глобальными процессами в историческом, стратегическом и культурном контекстах. Помимо формального образования, Маюх Дей занимался междисциплинарным обучением в таких областях, как управление ИИ, безопасность ИИ и риски, связанные с технологиями, уделяя особое внимание пониманию того, как новые технологии пересекаются с международной политикой и глобальным управлением. Как независимый исследователь, он активно развивает аналитические навыки и участвует в современных дискуссиях по геополитике, безопасности и глобальным вопросам.

Leave a Reply