
Una de las escenas más cruentas de la guerra entre Estados Unidos-Israel e Irán fue el asesinato de 150 niñas en una escuela primaria que fue bombardeada. Después de que una investigación de “The New York Times” confirmara, a través del análisis de imágenes y videos, que el ataque había sido realizado por militares estadounidenses, se abrió una investigación. Los resultados hasta el momento podrían indicar que fue un fatal error detrás del cual se encontraría la Inteligencia Artificial, que utilizó información errónea para sugerir la acción militar.
Desde hace años el gobierno estadounidense ha utilizado modelos de análisis de datos en el sector militar. Al igual que en la carrera armamentística de la Guerra fría, los enormes avances del gobierno chino en materia de modelos de IA aplicados al sector militar urgieron al gobierno estadounidense a hacer lo propio. Fue así como en 2017 el departamento de defensa impulsó la creación del proyecto Algorithmic Warfare Cross-Function Team, también conocido como proyecto Maven, destinado a analizar la información de la vasta red de espionaje del gobierno estadounidense, comenzando en Siria, con la información de las operaciones del ejército estadounidense contra el Estado Islámico (ISIS).
En un principio Maven fue adjudicado a tres empresas contratistas Palantir, Google y Anthropic, aunque la primera, tras las protestas de sus empleados, se retiró en 2018. Después de su salida fue incorporada la empresa Anduril Industries especializada en sistemas de seguridad, armas y drones operados con IA. También fueron adjudicados contratos a Amazon Web Services (AWS) y a Microsoft. En 2025 y 2026, el Pentágono también incorporó a xAI, y OpenAI para ayudar a ampliar el uso de IA en misiones de seguridad.
El proyecto Maven desarrolló el software de inteligencia artificial Maven Smart System (MSS), que es capaz de seleccionar objetivos militares, proponer opciones de ataque, seleccionar las armas adecuadas para ello y optimizar el tiempo de ataque, transformando la IA de una herramienta puramente analítica a un sistema de apoyo a la toma de decisiones en el campo con implicaciones letales.
En 2023, utilizando los resultados del proyecto Maven, la empresa Palantir desarrolló la plataforma de inteligencia Army Intelligence Data Platform (AIDP), diseñada para “unificar y agilizar las operaciones de inteligencia en los sistemas de la Comunidad del Ejército, la Defensa y la Inteligencia” (Palantir, 2026). Según el sitio web de la propia empresa, AIDP fue diseñada en estrecha colaboración y retroalimentación continua de las Brigadas de Inteligencia Militar del Ejército estadounidense. Desde 2024 la plataforma ha sido adoptada por todas las bases del ejército estadounidense por el mundo.
La AIDP funciona como una infraestructura que integra, organiza y distribuye grandes volúmenes de datos provenientes de múltiples fuentes (drones, satélites, inteligencia de señales, etc.), mientras que Maven Smart System constituye la capa analítica de inteligencia artificial que opera sobre esos datos, aplicando modelos de aprendizaje automático para identificar patrones, clasificar objetos, detectar posibles objetivos y generar recomendaciones para la toma de decisiones militares.
A la par que estas tecnologías se desarrollaban, fueron probadas en el campo, siendo Medio Oriente el teatro de experimentación de estas plataformas. La vasta red de espionaje e inteligencia que Estados Unidos ha desplegado en la región durante décadas hizo que fuera el escenario perfecto para probar las nuevas herramientas de inteligencia artificial.
Como se mencionó anteriormente, el proyecto comenzó analizando videos de drones de vigilancia en Siria para identificar combatientes de ISIS. Posteriormente, los avances tecnológicos permitieron que, en Afganistán, EE. UU. utilizara programas de IA no solo para el análisis de imágenes, sino también para integrar otros datos como grabaciones, documentos y redes sociales. Con esta base, el sistema comenzó a realizar predicciones de escenarios probables; es decir, la IA evolucionó de un modelo puramente analítico a uno predictivo, adquiriendo además la capacidad de seleccionar objetivos militares.
La etapa más reciente se desarrolla en el marco del conflicto con Irán, donde se han integrado modelos de lenguaje como Claude, el asistente de Anthropic, en su versión adaptada para uso militar. Esta herramienta facilita el análisis de datos dentro del ecosistema de inteligencia artificial del Pentágono, simplificando la toma de decisiones en tiempo real y significa el paso de la IA predictiva a la IA generativa.
La primera operación militar conocida donde se utilizó Claude fue en la intervención militar estadounidense en Venezuela, que llevó a la captura del presidente Nicolas Maduro y de su esposa. Esta operación provocó un enfrentamiento entre algunas de las empresas desarrolladoras de IA y el Pentágono sobre los límites éticos que debía tener la inteligencia artificial.
Tras la captura de Maduro, se supo que un ejecutivo de Anthropic contactó a Palantir para preguntar si su software había sido utilizado en esa operación (BBC, 15/03/2026). Tras filtrarse esa información, el Pentágono, que ya estudiaba una intervención militar en Irán solicitó a Anthropic eliminar las restricciones éticas impuestas a Claude, a lo que la compañía se negó.

Anthropic ha programado a Claude bajo estrictos parámetros éticos. Por ejemplo, el sistema no debe tomar decisiones de ataque ni seleccionar objetivos sin supervisión humana. Asimismo, tiene prohibido ejecutar acciones letales, participar en vigilancia masiva —restricción que solo aplica para ciudadanos estadounidenses— o intervenir en contextos identificados como ilegales o represivos. Si bien estas son las declaraciones públicas de la compañía, el uso de Claude en la operación contra Nicolás Maduro, considerada ilegal, obliga a cuestionar la efectividad real de los límites impuestos.
Ante la negativa de Anthropic de modificar la programación de Claude, el Pentágono dio por concluidos sus contratos con la empresa, designándola como un ‘riesgo en la cadena de suministro’. El ejército argumentó que la IA es simplemente una herramienta y que los límites éticos deben imponerse a los operadores, no a la tecnología en sí. Esta postura es compartida por Palmer Luckey, fundador de Anduril Industries, quien sostiene que las empresas no deben imponer sus propios criterios éticos, sino que deben ser los gobiernos quienes regulen la materia.
Esta discusión plantea el debate más amplio sobre la necesidad de regular la IA. La historia nos enseña que cada nueva tecnología aplicada a la guerra necesitó un marco regulatorio, aunque por desgracia siempre llegó cuando estas tecnologías ya habían causado muerte y destrucción.
En Gaza, el ejército israelí ha utilizado su propio sistema de IA Lavender para la guerra, dándole autonomía para elegir objetivos y programar estrategias militares, lo que ha dejado miles de civiles inocentes muertos y daños colaterales, pues para Lavender no hay límites éticos y por las acciones más recientes conocidas, tal parece que para el ejército israelí tampoco.
*Seminario Universitario de Cultura del Medio Oriente (SUCUMO), UNAM