El Pentágono promete constantemente cumplir la ley al utilizar la IA, pero ¿cuáles son los límites?
Por Sean Lyngaas, CNN
La guerra con Irán ha llevado a las fuerzas estadounidenses a utilizar la IA más que en cualquier otro conflicto anterior, recurriendo a enormes cantidades de datos —procedentes de satélites, inteligencia de señales y otras fuentes— que se introducen en programas informáticos elaborados por contratistas como Palantir.
Según múltiples fuentes familiarizadas con las operaciones estadounidenses, herramientas de inteligencia artificial como Claude, de Anthropic, han analizado los datos mucho más rápido que cualquier ser humano para señalar posibles objetivos de ataque a los comandantes.
La omnipresencia de las herramientas de IA en la guerra ha suscitado interrogantes sobre si estas herramientas contribuyen a errores en el campo de batalla.
Algunos demócratas del Congreso han presionado al Pentágono para que responda preguntas sobre si la IA pudo haber sido parcialmente responsable del ataque estadounidense de febrero contra una escuela primaria iraní, que, según los medios estatales iraníes, causó la muerte de al menos 168 niños.
Pero, ¿cuáles son los límites del uso de la IA por parte de las fuerzas armadas?
El secretario de Defensa, Pete Hegseth, ha recalcado que son los seres humanos del Pentágono, y no los agentes de inteligencia artificial, quienes toman la decisión final sobre a quién matar en la guerra.
“Nosotros cumplimos la ley y los humanos toman decisiones”, declaró Hegseth ante el Comité de Servicios Armados del Senado la semana pasada. “La IA no toma decisiones letales”.
Los portavoces del Pentágono han afirmado repetidamente que el uso de la IA por parte de los militares se ajusta a la ley.
Pero, aparte de especificar que los comandantes son responsables de las decisiones sobre objetivos letales y sus consecuencias, la ley no impone límites explícitos sobre dónde se puede utilizar la IA en la denominada cadena de ataque.
La rapidez con la que la IA ayuda a los comandantes a tomar esas decisiones letales plantea nuevas preguntas sobre cuándo y con qué frecuencia debe intervenir un ser humano en el proceso, según explicaron expertos legales a CNN.
La falta de restricciones ha dado lugar a intensos debates públicos sobre la ética de la IA en la guerra.
El Pentágono se encuentra inmerso en una complicada batalla legal con Anthropic, una importante empresa estadounidense de IA, después de que esta insistiera en imponer ciertas limitaciones al uso de su tecnología.
Hegesth calificó al CEO de la empresa de “lunático ideológico” por dicha exigencia.
“En definitiva, la historia se reduce a la rapidez con la que uno decide —o puede permitirse no— usar las tijeras”, declaró Gary Corn, exasesor jurídico adjunto de la Oficina del Jefe del Estado Mayor Conjunto. “Y vemos que el enfoque actual es: ‘Vamos a correr tan rápido como podamos con las tijeras’. Esa es la esencia de la lucha de Anthropic”.
El coronel de la Fuerza Aérea de EE.UU., John Boyd, acuñó la frase “ciclo OODA” (observar, orientar, decidir, actuar) para describir los periodos iterativos en combate en los que los comandantes deben tomar decisiones.
Gran parte del marco legal para el uso de la IA se basa en leyes preexistentes que determinan la responsabilidad cuando se toman esas decisiones.
“La IA está aumentando exponencialmente” la velocidad a la que los comandantes y su personal de apoyo tendrán que gestionar los ciclos OODA en combate, afirmó Cory Simpson, exasesor jurídico del Comando de Operaciones Especiales de Estados Unidos.
En la guerra, quienes logran superar ese obstáculo más rápidamente tienen ventaja.
En un video publicado en X por Palantir en marzo, Cameron Stanley, director de inteligencia artificial y tecnología digital del Pentágono, elogió cómo el software Maven Smart System de Palantir ha transformado la selección de objetivos militares estadounidenses.
Demostró cómo el software, que según afirmó está implementado “en todo el Departamento [de Defensa]”, puede identificar posibles objetivos militares e incorporarlos a un flujo de trabajo para que los líderes militares los analicen.
“Esto es revolucionario”, comentó Stanley. “Lo estábamos haciendo en unos ocho o nueve sistemas, donde los humanos literalmente movían las detecciones de un lado a otro para llegar al estado final deseado, en este caso, cerrar la cadena de eliminación”.
Los rápidos avances tecnológicos permiten programar sistemas de armas autónomas para que intenten evitar a la población civil.
Sin embargo, la tecnología aún no está preparada para —y los expertos afirman que nunca deberíamos renunciar a ella— sopesar el cálculo moral de cuánto daño colateral a civiles es aceptable en una guerra. Estados Unidos también se enfrenta a posibles adversarios que dan mucha menos importancia a evitar bajas civiles.
“Las mayores preocupaciones… radican en la previsibilidad y el control sobre una capacidad que se pone en funcionamiento”, afirmó Corn, quien actualmente es profesor adjunto en la Facultad de Derecho Washington College de la American University, refiriéndose a los sistemas autónomos, incluidos los drones, que pueden operar sin intervención humana. “Es necesario tener la certeza de que el sistema operará dentro de los límites que permite la ley en materia de selección de objetivos”.
El derecho internacional humanitario y el derecho de los conflictos armados establecen que los comandantes militares son responsables de minimizar, en la medida de lo posible, las bajas civiles en la guerra, independientemente de la tecnología empleada para matar.
Los comandantes cuentan con el asesoramiento de los asesores jurídicos militares, abogados integrados en los distintos mandos de las fuerzas armadas.
En 2023, a medida que la adopción de la IA se extendía por la industria de defensa, el Pentágono emitió una directiva para el personal militar sobre cómo manejar esta tecnología. “Los sistemas de armas autónomos y semiautónomos se diseñarán para permitir que los comandantes y operadores ejerzan un nivel apropiado de criterio humano sobre el uso de la fuerza”, indica la directiva.
Otro conjunto de directrices del Pentágono, publicadas durante la primera administración Trump en 2020, utilizó la misma frase, “niveles de criterio apropiados”, para describir cómo los funcionarios pueden utilizar la IA.
La directiva de 2023 sigue vigente. Deja abierta a interpretación qué constituye un juicio humano “apropiado”.
“El Departamento sostiene en [la directiva de 2023] que siempre ha habido un operador humano involucrado en el uso de capacidades autónomas”, declaró un funcionario del Pentágono en respuesta a una consulta de CNN sobre las últimas directrices legales para el uso de la IA en la guerra. “La responsabilidad del uso lícito de cualquier herramienta de IA recae en el operador humano y la cadena de mando, no en el software en sí”.
Simpson, exasesor jurídico del Comando de Operaciones Especiales, afirmó que la necesidad de expertos legales en cada etapa del proceso, desde la compra de un arma hasta su uso, no hará más que aumentar.
“Si bien la IA está cambiando la aplicación de las armas en la guerra, también va a cambiar las profesiones relacionadas con ellas, en cuanto a la forma en que deben capacitarse y concebir los procesos”, indicó Simpson.
Según el general retirado Michael “Erik” Kurilla, a finales de la década de 2000 y principios de la de 2010, el ritmo de las operaciones militares estadounidenses en Afganistán se vio algo limitado por la capacidad de recopilar y analizar datos para encontrar objetivos potenciales.
Durante la década y media siguiente, el análisis de datos, y posteriormente la inteligencia artificial, permitieron a las fuerzas estadounidenses aumentar drásticamente el número de ataques que podía llevar a cabo contra sus adversarios, declaró Kurilla el mes pasado en el Instituto de Seguridad Nacional de la Universidad de Vanderbilt.
Con la disponibilidad de más datos, surgió la necesidad de contar con más personal para revisar y aprobar todos los objetivos potenciales y llevar a cabo las misiones para atacarlos.
La IA “te da una ventaja en la toma de decisiones, ya que toma decenas de miles y cientos de miles de puntos de datos para presentártelos de una manera más coherente”, señaló Kurilla, quien supervisó la campaña de bombardeos de las fuerzas estadounidenses contra Irán en 2025.
Un año después, la “cadena de ataque” con apoyo de inteligencia artificial que Kurilla ayudó a construir ha vuelto a estar operativa en Irán.
“En el Comando Central de Estados Unidos, creamos un sistema que nos permitía procesar dinámicamente a más de mil objetivos cada 24 horas, con capacidad para hacerlo aún más. Brad Cooper está utilizando ese mismo sistema hoy contra Irán y lo mejora día a día”, apntó Kurilla, refiriéndose a su sucesor en el Comando Central.
Los errores cometidos por Estados Unidos en la guerra con Irán, incluido el ataque aéreo estadounidense contra la escuela primaria, están reavivando el escrutinio sobre cómo podría utilizarse la IA en el ámbito militar.
Aún no está claro si la IA influyó en el error del ataque a la escuela. El Pentágono está investigando el incidente.
Corn afirmó que dicha investigación intentaría responder a la pregunta: “¿Fue razonable o irrazonable confiar en la información de inteligencia, y por extensión en cualquier sistema de IA que se haya podido utilizar y en sus resultados?”.
En algún punto del proceso, es probable que se haya proporcionado información errónea al comandante que aprobó el ataque. Y, ya sea que la inteligencia sea procesada por IA o no, el comandante (o sus asesores) debe saber de dónde proviene.
“La IA es tan buena como los datos de los que puede valerse, al igual que los humanos son tan buenos como los datos de los que pueden valerse”, sostuvo Corn.
The-CNN-Wire
™ & © 2026 Cable News Network, Inc., a Warner Bros. Discovery Company. All rights reserved.
Con información de Zachary Cohen, de CNN.