Armas letales autónomas
No sé
si lo sabéis, pero esto es el futuro: máquinas de inteligencia artificial
superior a la humana tomando decisiones que no nos conciernen. Hoy mismo mi
hija me ha dicho que le gustaría poder resucitar dentro de 300 años para ver
cómo era el mundo entonces; que no es justo que sepamos cómo era todo hace 300
años y no podamos conocer cómo será.
He aquí
la posible solución al enigma. Y no estoy hablando de chorradas de internet.
Existe en la Universidad de Cambridge un centro de investigación llamado Centro
para el Estudio del Riesgo Existencial, que se preocupa del asunto, la
inteligencia artificial aplicada a las armas. Robots autónomos, que toman sus
propias decisiones, serán quienes se ocupen de matar. Un miembro de la
dirección científica del Instituto de Cuestiones
Fundamentales (sí, también existe), Max Tegmark, firmó en 2015, con Martin
Rees, Stephen Hawking, Jaan Tallinn, Noam Chomsky, Elon Musk y más de mil
investigadores, una Petición de Futuro de
la Vida para que se prohíban las armas de inteligencia artificial. Nadie
les hizo ni caso.
La petición
dice: “La tecnología de inteligencia artificial (IA) ha alcanzado un
punto en que el despliegue de armamento autónomo será factible en unos cuantos
años, si no legalmente al menos de manera práctica. Ya no se trata de décadas
sino de años y hay mucho en juego: el armamento autónomo ha sido descrito como
la tercera revolución en la historia de los conflictos armados, después de la
pólvora y las armas nucleares. La pregunta principal de la humanidad en la
actualidad es si quiere comenzar una carrera armamentista de IA o si preferimos
prevenirla desde su inicio”.
La respuesta está clara. Estamos asistiendo a una nueva
carrera armamentística que llevará en poco tiempo a la desaparición de los
humanos. O no, claro. Pero los más listos de la clase están intentando
prevenirnos, y los fabricantes de armas y sus amigos los gobernantes de los
Estados no creo que ahora mismo estén preocupándose por eso.
Comentarios
Publicar un comentario