>

Blog

Inteligencia artificial y factor humano

En 1983, un hombre salvó al mundo de una guerra nuclear que podría haberse desencadenado a causa del error de una máquina.

“Los sistemas de armas autónomos nunca podrán ser sujetos moralmente responsables: la exclusiva capacidad humana de juicio moral y de decisión ética es más que un complejo conjunto de algoritmos, y esta capacidad no puede reducirse a la programación de una máquina que, por muy ‘inteligente’ que sea, sigue siendo una máquina. Por esta razón, es imperativo garantizar una supervisión humana adecuada, significativa y coherente de los sistemas de armamento”. Lo escribió el Papa Francisco en su Mensaje para la Jornada Mundial de la Paz 2024.

Hay un episodio, ocurrido hace cuarenta años, que debería convertirse en un paradigma cada vez que hablamos de inteligencia artificial aplicada a la guerra, a las armas, a los instrumentos de muerte. Y es la historia del oficial soviético cuya decisión, contraviniendo los protocolos, salvó al mundo de un conflicto nuclear que habría tenido consecuencias catastróficas.

Aquel hombre se llamaba Stanislav Evgrafovich Petrov, era teniente coronel del ejército ruso y el 26 de septiembre de 1983 estaba de guardia nocturna en el búnker “Serpukhov 15” vigilando la actividad de los misiles estadounidenses. La Guerra Fría se encontraba en un momento crucial, el presidente estadounidense Ronald Reagan invertía enormes sumas en armamento y acababa de calificar a la URSS de “imperio del mal”, mientras la OTAN realizaba maniobras militares recreando escenarios de guerra nuclear.

Aquel hombre se llamaba Stanislav Evgrafovich Petrov, era teniente coronel del ejército ruso y el 26 de septiembre de 1983 estaba de guardia nocturna en el búnker “Serpukhov 15” vigilando la actividad de los misiles estadounidenses. La Guerra Fría se encontraba en un momento crucial, el presidente estadounidense Ronald Reagan invertía enormes sumas en armamento y acababa de calificar a la URSS de “imperio del mal”, mientras la OTAN realizaba maniobras militares recreando escenarios de guerra nuclear.

En el Kremlin se sentaba Jurij Andropov, que desde hacía había hablado de una “escalada sin precedentes” de la crisis, y el 1° de septiembre los soviéticos habían derribado un avión de la compañía Korean Air Lines sobre la península de Kamchatka, provocando 269 víctimas.

Aquella noche del 26 de septiembre, Petrov vio que el ordenador Krokus, el cerebro considerado infalible en la vigilancia de la actividad enemiga, había informado desde una base en Montana de la salida de un misil que se dirigía a la Unión Soviética. El protocolo exigía al oficial alertar inmediatamente a sus superiores, que darían el visto bueno a una respuesta mediante el lanzamiento de misiles hacia Estados Unidos.

Pero Petrov se tomó su tiempo, entre otras cosas porque –  se le había dicho – un eventual ataque habría sido masivo. Por lo tanto, consideró que aquel misil solitario era una falsa alarma. E hizo lo mismo con los cuatro siguientes que aparecieron en sus monitores poco después, preguntándose por qué no había confirmación del radar de tierra. Sabía perfectamente que los misiles intercontinentales tardaban menos de media hora en llegar a su destino, pero decidió no dar la alarma, dejando petrificados a los demás militares presentes.

En realidad, el cerebro electrónico se había equivocado; no había habido ataque con misiles. Krokus se había dejado engañar por un fenómeno de refracción de la luz solar en contacto con las nubes a gran altura.

En resumen, la inteligencia humana había visto más allá que la de la máquina. La providencial decisión de no decidir había sido tomada por un hombre cuyo juicio había sido capaz de ver más allá de los datos y los protocolos.

La catástrofe nuclear se evitó, aunque nadie lo supo entonces hasta principios de la década de 1990. Petrov, fallecido en septiembre del 2017, comentaba así aquella noche en el búnker “Serpukhov 15”: “¿Qué hice? Nada especial, sólo mi trabajo. Era el hombre adecuado en el lugar adecuado en el momento adecuado».

Había sido el hombre capaz de evaluar el posible error de la máquina considerada infalible, el hombre capaz – volviendo a las palabras del Papa – “de juicio moral y de decisión ética”, porque una máquina, por muy “inteligente” que sea, no deja de ser una máquina.

La guerra, repite Francisco, es una locura, una derrota de la humanidad. La guerra es una grave violación de la dignidad humana. Hacer la guerra escondiéndose detrás de algoritmos, confiando en la inteligencia artificial para determinar los objetivos y cómo golpearlos, y así limpiar la propia conciencia porque al final eligió la máquina, es aún más grave. No olvidemos a Stanislav Evgrafovich Petrov.

Si desea mantenerse actualizado sobre nuestros artículos, oraciones, eventos y misas suscríbase a nuestro canal de Whatsapp pulsando aquí

Realiza tu aportación aquí

Tu Aportación es Importante

!Regístrate aquí!

Contáctanos para separar tu cupo