Introducción
La inteligencia artificial se ha convertido en una tecnología crítica del siglo XXI, con aplicaciones que abarcan la salud, el comercio y la investigación científica. Sin embargo, los mismos algoritmos que permiten diagnósticos médicos pueden guiar armas autónomas, y los mismos sistemas de aprendizaje automático que impulsan motores de recomendación pueden identificar objetivos militares. Esta naturaleza de uso dual, en la que tecnologías desarrolladas con fines civiles pueden reutilizarse para aplicaciones militares, ha situado a la IA como un elemento central en la evolución de la dinámica de la seguridad global.
Las implicaciones estratégicas son profundas. China considera a la IA un pilar esencial de su modernización militar, con planes del Ejército Popular de Liberación para desplegar capacidades de “guerra algorítmica” y “guerra centrada en redes” hacia 2030 (Departamento de Defensa, 2024). Al mismo tiempo, los conflictos militares en Ucrania y Gaza han demostrado el uso operativo de sistemas de selección de objetivos impulsados por IA. A medida que los Estados destinan recursos significativos al desarrollo de IA militar, surge una pregunta crítica: si los beneficios de seguridad de las tecnologías de IA de uso dual pueden alcanzarse sin generar graves consecuencias humanitarias.
La inversión del modelo: la innovación comercial impulsando la modernización militar
Históricamente, la investigación y el desarrollo militares impulsaron la innovación tecnológica, y las aplicaciones civiles surgieron como beneficios secundarios, un fenómeno conocido como spin-off. Internet, el GPS y los hornos de microondas se originaron en laboratorios de defensa. Esta dinámica, sin embargo, se ha invertido. Hoy, las tecnologías desarrolladas comercialmente se “trasladan” cada vez más al sector de defensa, haciendo que las fuerzas armadas dependan de innovaciones creadas inicialmente para mercados civiles.
Esta inversión tiene implicaciones significativas para la seguridad global. A diferencia de la Guerra Fría, cuando Estados Unidos y la Unión Soviética controlaban el desarrollo de armas nucleares mediante programas estatales, la innovación en inteligencia artificial ocurre principalmente en empresas privadas, firmas tecnológicas e instituciones académicas. Organismos como la DARPA influyen en el desarrollo de tecnologías emergentes a nivel mundial, y sus proyectos suelen establecer referentes para los esfuerzos de investigación y desarrollo en todo el mundo (Defense Advanced Research Projects Agency, 2024). Esta difusión de capacidades tecnológicas complica los marcos tradicionales de control de armamentos basados en una producción militar controlada por el Estado.
La magnitud de la inversión es considerable. Las inversiones no clasificadas del Departamento de Defensa de Estados Unidos en inteligencia artificial aumentaron de aproximadamente 600 millones de dólares en 2016 a cerca de 1,800 millones en 2024, con más de 685 proyectos activos de IA en curso (Defense One, 2024). El gasto de China podría superar esta cifra, aunque los datos exactos no están disponibles debido a la opacidad de su presupuesto de defensa. Europa avanza en una dirección similar, con la Unión Europea comprometiendo 1,500 millones de euros a investigación y desarrollo relacionados con la defensa mediante iniciativas como el Fondo Europeo de Defensa.
Aplicaciones de uso dual en la guerra contemporánea
Las aplicaciones militares de la inteligencia artificial abarcan todo el espectro del conflicto, desde la planificación estratégica hasta la ejecución táctica. Entre los usos actuales se incluyen:
Inteligencia, vigilancia y reconocimiento (ISR): Los sistemas de IA procesan grandes volúmenes de datos de sensores, imágenes satelitales e inteligencia de señales para identificar patrones que superan la capacidad analítica humana. En 2024, “los sectores comercial y académico de IA en China lograron avances en modelos de lenguaje de gran escala (LLM) y en modelos de razonamiento basados en LLM, lo que redujo la brecha de rendimiento entre los modelos chinos y los modelos estadounidenses que actualmente lideran el campo”, permitiendo un análisis de inteligencia más sofisticado (Departamento de Defensa, 2024).
Sistemas de armas autónomas: Las armas autónomas pueden identificar, rastrear y atacar objetivos con una supervisión humana mínima. En la guerra entre Rusia y Ucrania, los drones representan actualmente entre el 70% y el 80% de las bajas en el campo de batalla (Center for Strategic and International Studies, 2025). Funcionarios ucranianos estimaron que los drones operados con IA con vista en primera persona podrían alcanzar tasas de impacto cercanas al 80%, frente al 30–50% de los sistemas pilotados manualmente (Reuters, 2024).
Mantenimiento predictivo y logística: La Fuerza Aérea de Estados Unidos utiliza IA en su programa ‘Condition-Based Maintenance Plus’ para los cazas F-35, analizando datos de sensores para anticipar fallas en los sistemas antes de que ocurran, lo que reduce tiempos de inactividad y costos operativos.
Comando y control: La IA ayuda a los comandantes militares a procesar información del campo de batalla y evaluar opciones a velocidades que superan la capacidad humana. El proyecto ‘Project Convergence’ integra IA, redes avanzadas, sensores y automatización en todos los dominios de la guerra (tierra, aire, mar, ciberespacio y espacio) para permitir una toma de decisiones sincronizada y en tiempo real.
Operaciones cibernéticas: La IA impulsa capacidades cibernéticas tanto ofensivas como defensivas, desde el descubrimiento automatizado de vulnerabilidades hasta la detección de malware y campañas sofisticadas de ingeniería social.
Gaza y Ucrania: la IA en los conflictos contemporáneos
Los conflictos recientes han ofrecido demostraciones operativas del uso militar de la inteligencia artificial y de los costos humanitarios asociados. El sistema israelí Lavender habría identificado hasta 37,000 posibles objetivos vinculados a Hamás, con fuentes que señalan tasas de error cercanas al 10% (972 Magazine, 2024). Un oficial de inteligencia israelí afirmó que “las FDI bombardearon objetivos en viviendas sin dudar, como primera opción. Es mucho más fácil bombardear la casa de una familia” (972 Magazine, 2024). El sistema aceleró los ataques aéreos, pero también contribuyó a víctimas civiles, lo que plantea serias preguntas sobre la rendición de cuentas algorítmica.
El diseño del sistema implicó concesiones explícitas: priorizar la velocidad y la escala por encima de la precisión. Según fuentes entrevistadas por 972 Magazine, el ejército autorizó la muerte de hasta 15 o 20 civiles por cada combatiente de bajo rango de Hamás señalado por Lavender, y en algunos casos se permitió la muerte de más de 100 civiles para asesinar a un solo comandante de alto nivel (972 Magazine, 2024). Los modelos fundacionales entrenados con datos comerciales carecen de la capacidad de razonamiento humano; sin embargo, cuando se aplican a la selección de objetivos militares, los falsos positivos derivan en muertes de civiles. Datos extraídos de metadatos de WhatsApp, Google Photos y otras plataformas comerciales se utilizaron para crear perfiles de objetivos basados en patrones que no necesariamente corresponden al estatus de combatiente.
Ucrania ha adoptado enfoques distintos, utilizando IA para coordinar enjambres de drones y reforzar sus capacidades defensivas frente a un adversario numéricamente superior. La viceministra de Defensa de Ucrania, Kateryna Chernohorenko, señaló que “actualmente existen varias decenas de soluciones en el mercado de fabricantes ucranianos” para sistemas de drones potenciados con IA que se entregan a las fuerzas armadas (Reuters, 2024). Ucrania produjo aproximadamente dos millones de drones en 2024, y los sistemas con IA alcanzaron tasas de éxito en combate de entre 70% y 80%, frente al 10–20% de los drones controlados manualmente (Center for Strategic and International Studies, 2025). Ambas partes del conflicto han desarrollado sistemas de selección de objetivos impulsados por IA, generando dinámicas de carrera armamentista operativa con consecuencias inmediatas en el campo de batalla.
Daño a la población civil: limitaciones técnicas y legales
La integración de la inteligencia artificial en sistemas militares letales plantea preocupaciones humanitarias que van más allá de la fiabilidad técnica. La incapacidad de la IA para respetar el principio de distinción — que exige proteger a la población civil diferenciándola de los combatientes conforme al derecho internacional humanitario — representa un desafío fundamental.
Los sistemas actuales de IA carecen de varias capacidades esenciales para una conducción legal de la guerra:
• Comprensión contextual: La IA no puede entender los complejos factores sociales, culturales y situacionales que determinan el estatus de combatiente. Una persona que porta un arma puede ser un combatiente, un civil defendiendo su hogar o un pastor protegiendo su ganado.
• Evaluaciones de proporcionalidad: El derecho internacional humanitario exige que los ataques militares no causen daños desproporcionados a la población civil. Human Rights Watch ha señalado que es dudoso que los sistemas robóticos puedan realizar este tipo de evaluaciones matizadas (Human Rights Watch, 2024).
• Juicio moral: Las máquinas carecen de la capacidad de compasión, misericordia o comprensión de la dignidad humana, cualidades que históricamente han funcionado como salvaguardas frente a atrocidades en tiempos de guerra.
• Rendición de cuentas: En los sistemas de armas autónomas, la responsabilidad se distribuye entre programadores, fabricantes y operadores, lo que dificulta establecer una responsabilidad individual clara. Como señaló un experto, “cuando la IA, el aprendizaje automático y el razonamiento humano forman un ecosistema estrechamente integrado, la capacidad de control humano es limitada. Los seres humanos tienden a confiar en lo que dicen las computadoras, especialmente cuando se mueven demasiado rápido para que podamos seguirlas” (The Conversation, 2024).
Los riesgos también afectan de manera desproporcionada a poblaciones específicas. Los sistemas de armas autónomas entrenados con datos históricos compuestos mayoritariamente por combatientes masculinos pueden generar sesgos algorítmicos. En el caso de Lavender, los análisis sugieren que “una de las ecuaciones clave era ‘hombre equivale a militante’”, lo que recuerda el enfoque adoptado durante las operaciones de guerra con drones en la administración de Obama (The Conversation, 2024). Las comunidades racializadas y las poblaciones musulmanas enfrentan riesgos elevados, dada la historia de uso discriminatorio de la fuerza.
Controles de exportación y desafíos en la transferencia de tecnología
Reconociendo la importancia estratégica de la IA, los gobiernos han implementado regímenes de control de exportaciones. La Oficina de Industria y Seguridad de EE. UU. ahora exige licencias para la exportación de chips de computación avanzada y pesos de modelos de IA, imponiendo condiciones de seguridad para resguardar el almacenamiento de los modelos más avanzados.
Estos controles enfrentan tensiones inherentes. Restricciones demasiado amplias podrían obstaculizar la investigación legítima y la innovación comercial. Los análisis sugieren que, si la tecnología de IA se controla de manera excesiva, las universidades estadounidenses podrían enfrentar dificultades para realizar investigaciones, debilitando el ecosistema de IA en EE. UU. Por otro lado, controles insuficientes permitirían a los adversarios adquirir capacidades de punta.
La efectividad de los controles de exportación sigue siendo incierta. En 2024, cientos de miles de chips, por un valor de millones de dólares, fueron introducidos ilegalmente en China a través de empresas fantasma, distribuidores variados y técnicas de etiquetado falso (Oxford Analytica, 2025). Se informa que los modelos DeepSeek de China, que lograron un desempeño cercano al de los sistemas estadounidenses, fueron entrenados con chips que eludieron las restricciones de exportación.
Gobernanza internacional: fragmentación y marcos en competencia
La comunidad internacional ha tenido dificultades para desarrollar marcos de gobernanza coherentes para la IA de doble uso. En lugar de un enfoque regulatorio global unificado, lo que ha surgido es una colección de políticas nacionales, acuerdos multilaterales, cumbres de alto nivel, declaraciones, marcos y compromisos voluntarios.
Varios foros internacionales han abordado la gobernanza de la IA:
• El secretario general de la ONU creó un Consejo Asesor de IA y solicitó un tratado legalmente vinculante para prohibir sistemas de armas autónomas letales sin control humano, a concluirse en 2026.
• El Grupo de Expertos Gubernamentales sobre Sistemas de Armas Autónomas Letales ha sostenido discusiones bajo la Convención sobre Ciertas Armas Convencionales desde 2013, con avances concretos limitados.
• La OTAN publicó en 2024 una estrategia revisada de IA, estableciendo estándares para el uso responsable y la adopción acelerada en operaciones militares.
• La Ley de IA de la UE, adoptada en 2023, excluye explícitamente las aplicaciones militares y la seguridad nacional de su alcance.
Este panorama fragmentado refleja divisiones geopolíticas. La percepción de centralidad de la IA para la competencia ha llevado a EE. UU. a posicionarse como líder de países ideológicamente alineados en oposición a China, incluso con fines de seguridad. China promueve su propia visión de gobernanza mediante iniciativas como la Iniciativa de la Franja y la Ruta, exportando estándares tecnológicos junto con infraestructura.
Implicaciones para la estabilidad estratégica
La IA genera desafíos para la estabilidad estratégica. Las armas autónomas permiten sustituir máquinas por soldados humanos en muchos roles del campo de batalla, reduciendo el costo humano y, por ende, el costo político de emprender guerras ofensivas. Esto podría aumentar la frecuencia de conflictos entre adversarios equivalentes, cada uno creyendo que puede prevalecer sin sufrir bajas significativas en su país. En conflictos entre adversarios no equivalentes, la reducción de bajas disminuye aún más la oposición interna a guerras de agresión.
Las implicaciones van más allá de la guerra convencional. Enjambres de drones completamente autónomos y armados podrían combinar daños masivos con falta de control humano, llegando a convertirse en armas de destrucción masiva comparables a dispositivos nucleares de baja escala. Las barreras técnicas para desarrollar estos sistemas están disminuyendo a medida que los componentes se vuelven disponibles comercialmente.
La IA también complica la estabilidad nuclear. Los avances en sensores potenciados por IA y en procesamiento de datos podrían socavar las capacidades de segunda respuesta al mejorar la detección de lanzadores de misiles móviles y submarinos. Esta erosión de la capacidad de represalia asegurada podría incentivar ataques preventivos durante crisis. Al mismo tiempo, los sistemas de IA que gestionan el mando y control nuclear generan riesgos de accidentes, errores de cálculo o lanzamientos no autorizados.
Limitaciones del marco ético
La integración de la IA en la guerra tensiona los marcos éticos tradicionales. La Teoría de la Guerra Justa exige que los combatientes mantengan responsabilidad moral por sus acciones, posean la capacidad de distinguir entre combatientes y civiles, y apliquen fuerza proporcional. El sesgo de automatización y la mediación tecnológica debilitan la agencia moral de los operadores de sistemas de puntería habilitados por IA, disminuyendo su capacidad para la toma de decisiones éticas.
Cuando los operadores interactúan con los sistemas de puntería a través de pantallas que muestran recomendaciones algorítmicas en lugar de observación directa, aumenta la distancia psicológica. Esta mediación puede transformar el acto de matar en un proceso burocrático: el operador se convierte menos en un agente moral que toma decisiones y más en un técnico que aprueba o rechaza sugerencias algorítmicas.
Además, la dinámica industrial, especialmente el financiamiento de capital de riesgo, influye en los discursos sobre la IA militar, moldeando la percepción del uso responsable de la IA en la guerra. Cuando los incentivos comerciales se alinean con aplicaciones militares, los límites entre innovación responsable y proliferación imprudente se vuelven difusos. Las empresas que desarrollan IA para mercados civiles enfrentan presión para expandirse al sector de defensa, a menudo con deliberación ética insuficiente.
Conclusión
Las tecnologías de IA de doble uso presentan tanto oportunidades como riesgos para la seguridad internacional. Una trayectoria podría llevar a la normalización de la guerra algorítmica a gran escala, carreras armamentistas en armas autónomas que erosionen la estabilidad estratégica y una gobernanza internacional insuficiente, con consecuencias para la población civil. Una trayectoria alternativa implicaría cooperación internacional que limite las aplicaciones más peligrosas, permitiendo al mismo tiempo usos beneficiosos.
El tiempo para establecer marcos de gobernanza es limitado. Las capacidades de IA avanzan rápidamente, y la proliferación generalizada de armas autónomas hará que revertir políticas sea mucho más difícil. El desafío se asemeja a la no proliferación nuclear, pero ocurre a mayor velocidad, impulsado por incentivos comerciales más que por programas estatales.
Dado que la IA es una tecnología de doble uso, los avances técnicos pueden generar beneficios económicos y de seguridad. Esto significa que la restricción unilateral de países democráticos cedería ventajas a competidores autoritarios. Sin embargo, la competencia descontrolada genera riesgos para todas las partes.
Se requiere acción concreta de múltiples actores. Los Estados deben fortalecer acuerdos multilaterales, como la Convención de la ONU sobre Armas Convencionales, estableciendo restricciones vinculantes para armas autónomas sin control humano significativo. La OTAN y alianzas regionales de seguridad deben armonizar estándares éticos de IA y crear mecanismos de verificación para implementaciones militares. Las instituciones militares deben exigir la participación humana obligatoria en sistemas autónomos letales y establecer cadenas claras de responsabilidad en decisiones de puntería basadas en IA.
Las empresas tecnológicas que desarrollan sistemas de IA de doble uso tienen la responsabilidad de implementar salvaguardas éticas y realizar un modelado exhaustivo de amenazas antes del lanzamiento comercial. Las alianzas industriales deben establecer estándares de transparencia para aplicaciones militares de IA y crear mecanismos de auditoría independientes. Universidades e instituciones de investigación deben integrar ética de IA y derecho humanitario internacional en la formación técnica.
Los regímenes de control de exportaciones requieren coordinación entre EE. UU., la UE y países aliados para evitar arbitraje regulatorio sin restringir la investigación legítima. Los gobiernos democráticos deben liderar demostrando que la IA militar puede desarrollarse dentro de estrictos límites éticos y legales, estableciendo estándares que distingan aplicaciones de seguridad legítimas de la proliferación de armas desestabilizadoras.
Como observó el ministro de Relaciones Exteriores de Austria, Alexander Schallenberg, esto representa el momento Oppenheimer de la generación actual, reconociendo que la IA de doble uso, al igual que las armas nucleares, es una tecnología cuyas aplicaciones militares exigen contención colectiva.
Las decisiones políticas que se tomen en los próximos años tendrán consecuencias a largo plazo. Determinarán si la IA se convierte en una herramienta para el avance humano o en un instrumento de guerra algorítmica. La tecnología existe; el marco político aún debe establecerse. Los actores están identificados; la pregunta es si poseen la voluntad política para actuar antes de que la proliferación se vuelva irreversible.
