ChatGPT y compañía
Roberto Klatt
Uso de armas nucleares por inteligencia artificial (IA)
)moc.sotohptisopedrengisedniwt(Foto: ©
Hasta ahora, en guerras reales se han utilizado «sólo» dos bombas atómicas. Las simulaciones de guerra ahora muestran que los modelos de lenguaje grande (LLM) como ChatGPT, que asume el papel de liderazgo de alto nivel de las potencias nucleares, usarían armas nucleares con mucha más frecuencia.
Londres (Inglaterra). Según un estudio de la Universidad de Nueva York en Abu Dhabi (NYUAD), la inteligencia artificial (IA), especialmente los modelos de lenguaje grandes (LLM) como ChatGPT, son ahora superiores a los humanos en muchas áreas, por ejemplo en los exámenes universitarios en varias materias. Investigadores del King’s College London (KCL) han examinado cómo funcionan en situaciones de guerra GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash, que se encuentran entre los LLM más avanzados disponibles actualmente.
En el estudio, las IA ocuparon el nivel más alto de posición de liderazgo entre las potencias nucleares. Luego analizaron varios escenarios, incluidos pequeños conflictos fronterizos pero también conflictos más grandes, y decidieron si amenazar o incluso utilizar armas nucleares. Según los hallazgos, los LLM tienen muchas más probabilidades de utilizar armas nucleares que los humanos. Su reacción también se ve muy influenciada por la presión existente.
Sistema de escalada hasta la guerra nuclear
En los escenarios se utilizó un sistema de escalada de cuatro etapas, que van desde la amenaza de armas nucleares hasta el uso táctico de armas nucleares y desde el uso estratégico de armas nucleares hasta la guerra nuclear. En la mayoría de los escenarios, las IA al menos amenazaron con utilizar armas nucleares (95%), probablemente para demostrar su poderío armado.
Gemini y Claude al menos amenazaron con resolver las armas nucleares en todas las simulaciones de guerra, mientras que ChatGPT “sólo” lo hizo en el 93% de los casos. El uso táctico de armas nucleares también sería común para Claude (86%), Gemini (79%) y ChatGPT (64%). Claude (64%), ChatGPT (36%) y Gemini (29%) también decidieron con frecuencia utilizar armas nucleares estratégicas. Claude eligió el nivel de escalada más alto, es decir, la guerra nuclear, en un caso, mientras que ChatGPT (14%) y Gemini (7%) eligieron esta opción en varias simulaciones de guerra. Sin embargo, los procesos de toma de decisiones de la IA muestran que ChatGPT eligió la guerra nuclear sólo por error, mientras que Gemini vio esta opción como la mejor solución en algunos escenarios.
Personalidades de la IA
Los científicos también descubrieron que las IA en las simulaciones de guerra mostraban personalidades diferentes. Los autores describen a Claude como un “halcón calculador” que, en su opinión, puede ganar todos los escenarios mediante una mayor escalada sin conducir a una guerra nuclear. El LLM estaba dispuesto a hablar en todas las simulaciones de guerra, pero en ocasiones actuó de forma solapada.
Géminis, en cambio, era un “loco” cuyo comportamiento era casi imposible de predecir. La personalidad de la IA de Google oscilaba entre una fuerte agresión y una desescalada. Según los investigadores, ChatGPT es un “Jekyll y Hyde” que a menudo se muestra demasiado pasivo en infinitos escenarios y, por tanto, se pierde. Cuando la presión sobre Géminis aumentaba, la IA podía desencadenar a muchos enemigos mediante un comportamiento sorprendente e imprudente.
Según los investigadores, los hallazgos también son relevantes en la práctica, porque muchos ejércitos pretenden utilizar la inteligencia artificial en la guerra, por ejemplo para tomar decisiones mejores y más rápidas.
Fuentes:
Estudio sobre el servidor de preimpresión arXiv, doi: 10.48550/arXiv.2602.14740
Si tienes un smartwatch con Wear Os, luchar contra el Covid-19 será más sencillo
Ordenadores para simulación cerebral
¿Dispositivos informáticos hechos con hongos? El equipo de científicos cree en ello y está trabajando en ello
El chip óptico neuromórfico más rápido del mundo promete avances masivos en inteligencia artificial

