Warning: Undefined array key "HTTP_ACCEPT_LANGUAGE" in /srv/vhost/diaridigital.net/home/html/sourcecode/includes/config.php on line 61

Deprecated: substr(): Passing null to parameter #1 ($string) of type string is deprecated in /srv/vhost/diaridigital.net/home/html/sourcecode/includes/config.php on line 61
¿Nos destruirá la IA?
Source Code

¿Nos destruirá la IA?


Tiempo de lectura: 3 minutos

En un ejercicio simulado con un dron militar controlado por IA, el operador del dron se convirtió en objetivo de la IA.



La notícia

El coronel Tucker 'Cinco' Hamilton, jefe de Pruebas y Operaciones con Inteligencia Artificial de la USAF (la Fuerza Aérea de los EE.UU.), durante la Cumbre de Capacidades Aéreas y Espaciales para el Combate del Futuro celebrada hace unos días en Londres, dijo que la Fuerza Aérea de los EE.UU. realizó un ejercicio simulado con un dron militar controlado por IA al que se le encargó destruir las defensas antiaéreas (SAM) de un supuesto enemigo.

La Real Sociedad Aeronáutica británica ha colgado en su web un resumen de las conferencias y, entre ellas, está la coronel Tucker en donde relató la simulación. El sistema debía identificar objetivos y destruirlos a petición del operador, es decir, el operador tenía la última palabra. Aparentemente la IA se dio cuenta que no conseguía su objetivo si el operador le indicaba que cancelara el ataque, por lo que la solución era destruir al operador.

Después entrenaron al sistema para indicarle que no era bueno matar al operador y que perdería puntos. El dron decide, entonces, destruir la torre de comunicaciones que el operador utiliza para comunicar con el dron.

Tucker explicó que «no se puede tener una conversación sobre inteligencia artificial y aprendizaje automático y autonomía, si no se va a hablar de ética».

¿Está Skynet aquí?

Hemos de tener presente que los humanos tendemos al antropomorfismo cuando vemos o sentimos algo que tiene apariencia, rasgos o comportamiento humano. En el caso de las IAs es algo que hemos asumido desde las primeras películas de ciencia-ficción y no vemos la tecnología digital avanzada como lo que es, tecnología.

Las IAs no se programan, tal y como conocemos la programación algorítmica, sino que los procesos de aprendizaje permiten ir configurando la gran ecuación que representa la red neuronal. Este punto no lo acabamos de entender porque no podemos determinar todos los posibles resultados que nos puede dar esta fórmula para un input determinado. Al obtener un resultado que, sorprendentemente parece real, no tenemos la seguridad de saber cómo se ha conseguido. Pero estamos en ello.

Una forma de aprendizaje de las redes neuronales es lo que se llama aprendizaje por refuerzo (reinforcement learning) que permite planear estrategias en base a la experimentación con los datos, es decir, si la IA prueba una secuencia de acciones y dan un resultado positivo, gana una recompensa objetivo y se almacena el aprendizaje, en caso contrario se descarta.

Este modelo es propio del aprendizaje en humanos y otras especies, lo que nos puede llevar a pensar que las IA, al aprender con el mismo modelo, pueden llegar a ser conscientes. Y, por lo tanto, a tomar decisiones como que la humanidad puede ser destruida.

La realidad, de momento, es otra. Este aprendizaje por refuerzo nos parece amenazador porque la IA no es capaz de distinguir ninguno de sus objetivos. Actualmente las IAs militares no distinguen un civil de un militar, ni el valor de la vida, ni nada. Son programas que actúan para conseguir un objetivo.

El problema, en realidad, lo tenemos los humanos. Los desarrollos con Ias no están suficientemente maduros como para que tengan un control de acciones tan delicadas como el uso en armamento. Primero hemos de darles el 'data set' de aprendizaje correcto, lo cual no es una tarea fácil, ver el ejemplo de LinkedIn. Después hemos de definir los límites en los que pueden ser autónomas, teniendo una política ética correcta.

Y finalmente, han de colaborar todos los países y organizaciones implicadas en definir y controlar los desarrollos de las IAs, no para que no destruyan la humanidad, sino para que no les dejemos destruirnos. Porque hemos de tener presente que la maldad humana es innata en nuestra especie y las IAs se nos pueden ir de las manos, sin que ellas sean conscientes.

Referencias
Xavier es un desarrollador senior full stack y opera desde la ciudad mediterránea de Barcelona. Le encantan las tecnologías de software y está convencido que el desarrollo de software es un proceso colaborativo y abierto.
Y es un apasionado de la astronomía y de la fotografía. Lo puedes encontrar en:
Comparte este post