Que el lanzamiento de los misiles nucleares tras un ataque enemigo quede en manos de la IA: la propuesta de dos expertos de EE.UU.

La existencia de misiles hipersónicos, de misiles furtivos de crucero y de armas dotadas de inteligencia artificial han reducido aún más el tiempo que las autoridades de una potencia nuclear tendrían para dar luz verde a un contraataque antes de que sus propios sistemas de control y comunicaciones quedaran inutilizados por el enemigo.

Ante esta circunstancia, los expertos estadounidenses en disuasión nuclear Adam Lowther y Curtis McGiffin han propuesto en un artículo publicado en una publicación especializada que, en su país, la potestad de dar la orden de contraataque no dependa de ningún ser humano, sino de una inteligencia artificial: una IA controlando el botón de lanzamiento de los 3.800 misiles nucleares del arsenal estadounidense.

¿Qué fue (o es) la ‘Mano del hombre muerto’?

En realidad, la propuesta no es tan novedosa, puesto que el gran enemigo de los EE.UU. durante la Guerra Fría, la Unión Soviética, contó con un sistema similar (semiautomatizado y carente de IA en el sentido moderno del término): el Sistema Perimtr, popularmente conocido en Occidente como la Mano del Hombre Muerto.

Su funcionamiento era sencillo: el sistema se hallaba en constante contacto con diversas instalaciones militares en territorio ruso (incluyendo el propio Kremlin) y si en algún momento llegaran a fallar todos los canales de comunicación (presumiblemente a causa de un masivo ataque nuclear enemigo), Perimtr habilitaría el lanzamiento manual del arsenal soviético, permitiendo que incluso oficiales de bajo rango sin acceso a los códigos de lanzamiento pudieran accionar el contraataque.

Oficialmente, la Mano del Hombre Muerto soviética fue desmantelada tras la caída de la URSS, aunque expertos como Peter Smith (autor de ‘Doomsday Men’) afirman que Rusia seguiría protegida aún hoy por un sistema heredero de Perimetr.

En cualquier caso, ahora Lowther y McGiffin proponen dotar a Estados Unidos de un mecanismo equivalente, aunque en esta ocasión la IA permitiría que fuera totalmente automatizado:

«Puede ser necesario desarrollar un sistema basado en inteligencia artificial, con respuestas predeterminadas, que sea capaz de [reaccionar] a tal velocidad que la reducción de los tiempos de ataque no sitúen a los Estados Unidos en una posición insostenible».

¿Cómo evitar que un error del algoritmo desemboque en un holocausto nuclear?

Los autores proponen otras alternativas a esa propuesta, que pasan por situar sistemas de lanzamiento nuclear fuera de las fronteras estadounidenses para garantizar el mantenimiento de su capacidad de represalia. Sin embargo, dejan muy clara su apuesta por el uso de inteligencia artificial. Y eso plantea preguntas sobre los algoritmos y los protocolos de seguridad con los que podría contar semejante sosias de Skynet para evitar desatar una guerra nuclear no deseada.

Hoy en día, los algoritmos de aprendizaje automático son entrenados mediante el uso de grandes conjuntos de datos que permitirán a la IA aprender a detectar lo que está buscando. Por ejemplo, los sistemas de conducción autónoma se forman analizando millones de ejemplos de conducción humana… y aún así, la cantidad de datos se revela insuficiente dada la complejidad de la tarea.

De modo que, ¿cómo entrenar un algoritmo que debe ser capaz de detectar que su país ha sufrido un ataque nuclear masivo… cuando en la historia jamás se ha dado un solo caso de un ataque así? Michael Horowitz, profesor de la Univ. de Pennsylvania y colaborador del Bulletin of Atomic Scientists (la organización científica responsable de mantener el Reloj del Juicio Final), afirma que, dado el estado del desarrollo de la IA, un sistema así implicaría «algunos riesgos».

Siempre se podría buscar, a modo de mecanismo de seguridad, que el sistema demandase la confirmación de algún humano antes de dar por buena la detección de dicho ataque. Al fin y al cabo, el teniente coronel Stanislav Petrov ya evitó un holocausto nuclear en 1983, cuando el sistema soviético de detección de misiles nucleares detectó erróneamente cinco misiles dirigiéndose hacia territorio ruso, hecho que él (acertadamente, aunque en contra del protocolo de seguridad oficial) desestimó como una mera ‘falsa alarma’.

Sin embargo, en los tiempos de la inteligencia artificial, el ser humano tiende a ser cada vez menos escéptico ante las afirmaciones de ésta. Horowitz lo denomina ‘sesgo de automatización’ y pone de ejemplo un estudio en el que los pilotos afirmaron que no confiarían en un sistema automatizado que les informase de un incendio en el motor a menos que hubiera evidencia que lo corrobora… pero, una vez inmersos en las simulaciones, eso fue exactamente lo que decidieron hacer.

«Existe en riesgo de que el sesgo de automatización impida al Petrov del futuro utilizar su propio juicio. O, sencillamente, de que en el futuro sencillamente no exista un Petrov».

Deja una respuesta