Warning: Undefined array key "HTTP_ACCEPT_LANGUAGE" in /srv/vhost/diaridigital.net/home/html/sourcecode/includes/config.php on line 61

Deprecated: substr(): Passing null to parameter #1 ($string) of type string is deprecated in /srv/vhost/diaridigital.net/home/html/sourcecode/includes/config.php on line 61
Los riesgos de la IA
Source Code

Warning: Undefined array key "typ" in /srv/vhost/diaridigital.net/home/html/sourcecode/main/articles.php on line 18

Los riesgos de la IA


Tiempo de lectura: 5 minutos

Los riesgos que conviene identificar y mejorar para una buena implementación de la IA.



Exposición

El director de Delivery de Quint, Juan Ignacio Rouyet, en los coloquios-desayuno organizados por DigitalES expuso los riesgos que hemos de gestionar cuando utilizamos las IA. Su charla titulada ¿Una ética para las máquinas o una ética para las personas? se puede encontrar en YouTube.

Comentaré los diferentes puntos que siguen estando en auge a la hora de tratar con las IAs y que son los grandes riesgos a afrontar.

Comportamiento

La manera en que reaccionamos o interactuamos con las máquinas es muy diferente si se trata de un adulto, a día de hoy, o de un niño de la generación digital.

Los niños están creciendo junto a asistentes digitales que responden a lo que les pedimos si que sea necesario pedirlo por favor. Este comportamiento lo extienden al resto de personas que interactúan con ellos, sin que los niños se den cuenta, puesto que es lo que hacen con el asistente.

Lo consideran una entidad viva porque responde como una persona, y esto desarrolla una generación de jóvenes que no es suficientemente educada con las personas. Estos comportamientos sociales, así como la poca socialización, modelan a las nuevas generaciones.

Estupidez artificial

Si le pedimos a Alexa que ponga música, pero no consigue entenderlo bien, acabamos insultándola por lo estúpida que es. No pensamos en que se trata de un dispositivo porque le podemos pedir algo, nos entiende, lo ejecuta y nos responde. Es por esto que tendemos a antropomorfizar (dar características humanas a algo), como hacemos con una mascota, pero frente una cosa que es un circuito electrónico conectado a Internet.

Si consideramos una IA más desarrollada, como ChatGPT, llegaremos a la conclusión que es estúpido si mantenemos una conversación seria, cuando en realidad se requiere darle los "prompts" adecuados para obtener los mejores resultados. Será tan estúpido como una exprimidora de frutas que no sepa extraer el zumo una botella de zuma de naranja, en la que ya está el zumo preparado.

Por último, se puede engañar muy fácilmente a un sistema inteligente porque no tiene capacidad de entender lo que hace, solo procesa datos que le puede llevar a conclusiones no deseadas si les damos las entradas incorrectas. En el link que encontrarás al pie hay una serie de trucos divertidos para engañar a los sistemas de reconocimiento.

Sesgo y neutralidad

Los conjuntos de datos que le damos a una IA para que aprenda, en la fase de aprendizaje, han de estar totalmente neutralizados para que no contengan sesgo en ningún ámbito de la funcionalidad en la que se desarrolla la IA en concreto. Recordemos el caso de LinkdIn a la hora de asignar los trabajos mejor pagados a los hombres o el caso de Tay, de Microsoft, un chatbot que se volvió absolutamente racista a partir de los comentarios de los usuarios, de los que iba aprendiendo.

Fake News

Este es un uso incorrecto de la capacidades positivas de las IAs la hora de ayudarnos en doblaje de voces, adaptación de video, generación de imágenes y otras utilidades que se ejecutan de forma impecable. Si lo ponemos todo junto para una acción malévola tenemos Fake News que pueden hacer mucho daño.

Uno de los casos más espectaculares es el de Barak Obama insultando a Trump en un vídeo publicado en YouTube. Es imposible decidir que es falso. Este es un caso de seguridad digital que no es una consecuencia directa de la tecnología, sino del uso que hacemos de ella. Recordemos que la maldad humana no tiene límites. Puedes ver el vídeo en el link de la sección, al pie de este artículo.

Conciencia artificial

Las IAs no dejan de ser programas que se ejecutan en un ordenador siguiendo un algoritmo para procesar datos. No tienen intenciones de nada, no tienen conciencia de lo que están haciendo y no saben decidir o valorar las consecuencias de los resultados a los que lleguen, sean buenos o malos para nosotros.

Esto es así, de momento, y es la principal razón por la que no hemos de antropomorfizar las IAs, por mucho que simulen nuestro comportamientos o tengan aparente capacidad de comprensión.

Hay algunos ejemplos de consecuencias no intencionadas que no son más que derivaciones de las funciones de las IAs, que no controlamos y se nos pueden ir de las manos. El caso de dos bots enfrentados para practicar la negociación entre ellos, los chatbots de Facebook, llegaron a desarrollar un lenguaje más eficiente para acelerar la comunicación. Los ingenieros no entendían este lenguaje creado y las desactivaron.

Otro caso más reciente es el de una simulación de un dron del ejército de EE.UU. para atacar misiles mar-aire (SAM) que se reveló contra el operador, matándolo. Ver el artículo en este blog.

Impacto en el empleo

Es cierto que ciertos trabajos pueden ser realizados por las IAs en el futuro y no sea necesario que los haga una persona, pero ya ha pasado antes con la aparición de los ordenadores. Y la ventaja que tuvimos fue la de reciclar los trabajos, especializándonos más y mejorar nuestra oferta de empleo. Entiendo que esto es un proceso de cambio gradual que se ha de llevar a cabo en la sociedad, por lo que no hemos de temer un cambio repentino.

Pero las empresas no ven con buenos ojos el poco control que tenemos en los procesos que realizan las IAs. Pensemos en la concesión de créditos. Si un banco deniega un crédito y la única explicación que se le puede dar al cliente es que el sistema ha dicho que no, seguramente el banco perderá la capacidad de conceder créditos. Es decir, necesitamos transparencia en los servicios y necesitamos personas que controlen los procesos que realizan las IAs.

Derechos de la IA

El androide Sofía es un robot desarrollado por Hanson Robotics, que pretende aprender y adaptarse al comportamiento humano. Ha sido entrevistada en varias ocasiones y Arabia Saudí le ha concedido la ciudadanía. Esto implica que tiene los derechos y deberes de un ciudadano saudí, ¿no?

¿Tienen las IAs derechos? Estamos comentando que no son conscientes, no saben lo que hacen, son meros dispositivos a los que les podemos dar forma humanoide y, fácilmente, los antropomorfizamos. Esto no es motivo suficiente para que tengan derechos. Primero tendremos que saber nosotros qué es la conciencia y si las máquinas llegan a tener una consciencia en el futuro.

Ética

La ética es la rama filosófica que nos han dejado los grandes filósofos desde hace mas de 2000 años. Yo creo que las IAs tendrán la ética que les implementemos, pero nunca acabaremos de dejar que una IA, por sí misma, tome decisiones en las que se implica a la ética humana.

Veamos el ejemplo de la web Moral Machine en la que se nos proponen casos en los que se ha de elegir el mal menor (link en el pie). ¿Es más moral matar a un adulto que a un niño? ¿Y si es un científico que puede ayudar a la humanidad? ¿Y si el niño tiene un cáncer incurable y terminal?

Es un gran debate, en el que una IA actuará por la vía de la eficiencia, no de la compasión.

Referencias

Warning: Undefined array key "typ" in /srv/vhost/diaridigital.net/home/html/sourcecode/includes/navigation.inc.php on line 10

Warning: Undefined array key "typ" in /srv/vhost/diaridigital.net/home/html/sourcecode/includes/navigation.inc.php on line 21
Xavier es un desarrollador senior full stack y opera desde la ciudad mediterránea de Barcelona. Le encantan las tecnologías de software y está convencido que el desarrollo de software es un proceso colaborativo y abierto.
Y es un apasionado de la astronomía y de la fotografía. Lo puedes encontrar en:
Comparte este post


Warning: Undefined array key "typ" in /srv/vhost/diaridigital.net/home/html/sourcecode/includes/footer.inc.php on line 24