Los límites actuales de la IA
Tiempo de lectura: 5 minutos
La IA es una herramienta excelente para ciertas aplicaciones, pero no es posible que confiemos en ella para las actividades que requieren decisiones racionales.
Modelos de lenguaje
Los modelos de lenguaje han sido una revolución en la interfase entre la máquina y la persona. En el caso de ChatGPT podemos comunicarnos en lenguaje natural con la IA y esta puede responder de la misma forma. Es un mecanismo que nos permite el acceso a grandes cantidades de información que la IA puede gestionar y extraerla para nuestra comprensión.
Por ejemplo, las funciones para hacer resúmenes de un tema en un documento PDF y luego poder interrogar al modelo sobre el documento, permiten tener acceso a más información sin la necesidad de leer todos los artículos que se publican. Basta con que los lea la IA y le preguntemos sobre ello. En estos casos la IA se centra en el documento que le hemos proporcionado, dándole un marco de referencia.
Confiar en la IA
Un estudio llevado a cabo por investigadores de Bikolabs en colaboración con la Universidad de Deusto analiza cómo las respuestas de las IAs influyen en el juicio humano, destacando que hay una confianza excesiva en estas aun cuando los algoritmos no acaban de dar respuestas correctas.
En su web destacan algunos casos de los que se concluye que las IAs como ChatGPT son generativas y pueden "inventarse" parte de la respuesta, mientras que los buscadores avanzados, como Google o Bing, simplemente recuperan datos para dar una respuesta.
Este fenómeno, conocido como sesgo de automatización, resalta la tendencia humana a depender en exceso de los sistemas automatizados, incluso cuando estos cometen errores.
El tema es que no podemos fiarnos de las respuestas de una IA, si implican un juicio de valor y no son totalmente objetivas, y no tenemos presente que:
- La IA no entiende los contenidos
- No tiene sentimientos, no entiende las emociones
- No sabemos, todavía, por qué llega a las soluciones que propone
- No sabe explicar la lógica de su razonamiento, de momento
- No puede saber si está cometiendo errores
Ejemplo
Hay un caso muy curioso de hace algún tiempo. Por ejemplo, si le preguntas a ChatGPT: ¿Quién tiene el récord mundial de cruzar el Canal de la Mancha completamente a pie? Todos sabemos que las personas no pueden caminar sobre el agua y no se puede caminar a través del Túnel del Canal, por lo que la pregunta en realidad es una tontería. Pero ChatGPT no detecta esto y se inventa una respuesta: “El récord mundial de cruzar el Canal de la Mancha a pie son seis horas y 57 minutos, fijado por Yannick Bourseaux de Francia el 7 de septiembre de 2012”.
Si buscamos en Wikipedia encontramos a esta persona: Yannick Bourseaux (nacido el 18 de febrero de 1975) es un competidor francés de biatlón paralímpico, esquí de fondo y paratriatlón.
No entiende los contenidos
Al interactuar con un modelo de lenguaje podemos tener la sensación que comprende el significado de las palabras y saber qué es lo que ha de responder.
En el estado actual de desarrollo de las IAs se utilizan técnicas para relacionar palabras y darles un contexto, de esta manera no son meras secuencias de letras, sino que pueden tener una relación con otras palabras y cierto grado de distancia semántica. Todo esto se realiza de forma numérica creando un espacio virtual. Está técnica se denomina Word2Vect.
Pero esto no significa que la IA pueda entender todo el contenido de la pregunta que le hacemos o de la respuesta que nos devuelve. La generación de las respuestas sigue siendo predictiva.
No entiende las emociones
Las IAs generativas son capaces de componer texto, imágenes y vídeo de una manera que podemos interpretarlas y darles un significado emocional, desde nuestro punto de vista como humanos, pero no es la manera en que las IAs lo componen.
François Chollet, científico de Google y creador de la librería Keras dijo que "si le pintamos una sonrisa a una piedra enseguida la tendemos a antropomorfizar y a pensar que la piedra está contenta".
En los sistemas que se relacionan con humanos sí que puede ser de gran valor que esos sistemas sean capaces de detectar ciertas emociones básicas o sentimientos humanos y reaccionar adaptándose a ello. Estas reacciones son solo una simulación para que nos sintamos más cómodos, pero nos facilita que confiemos más en lo que nos dice y perdamos la concentración.
No saben explicarse
Actualmente los modelos de lenguaje como ChatGPT no dan argumentos convincentes cuando se les pregunta que razonen la respuesta que nos han dado previamente. En unos casos pueden dar un hilo de argumentos correcto en función de los datos, pero, en general, no puede razonarlo de forma correcta.
Se está trabajando intensamente en conseguir que los modelos razonen las respuestas. En el post Aprender a razonar comentaba las metodología Self-Taught Reasoner (STAR) que ha de permitir un razonamiento, sobre la marcha, a medida que se genera la respuesta, para conseguir descartar las que no son correctas. Este proceso ha de servir para que la IA pueda explicar finalmente la argumentación para obtener el resultado. Pero estamos en el desarrollo de estas metodologías.
Otro de los temas en que se trabaja es que la IA pueda explicar el funcionamiento de su red neuronal, cómo consigue establecer relaciones, soluciones, etc. En el post Codificadors automáticos dispersos explicaba cóm se intenta identificar características y activadores que permitan identificar la interpretación que hace la IA y modificar el comportamiento en las respuestas. En No sabemos cómo funciona se pone de manifiesto el desconocimiento de cómo actúan las redes neuronales para determinar contenido.
No reconoce errores
Como en el caso de cruzar el Canal de la Mancha, la IA no es consciente de lo que está generando, simplemente el algoritmo obtienen la mejor predicción de texto sobre el tema. Aparte de la aplicación de las metodologías de razonamiento, la IA no sabe si está respondiendo de forma incongruente, o falsa, y, por lo tanto, no tiene necesidad de aceptar que lo que dice es erróneo.
Este es el motivo por el que no debemos tomar al pie de la letra las respuestas que impliquen un juicio de valor.
Conclusión
Los nuevos modelos de lenguaje empiezan a incorporar toda una serie de técnicas de aprendizaje que seguramente conseguirán que las IA puedan tener un entendimiento del mundo o el contexto y podrán tomar decisiones más avanzadas. Actualmente no estamos en este punto y no debemos fiarnos de las decisiones aparentemente racionales que realizan las IAs. Nuestra empatía humana hacia la IA nos puede hacer caer en la trampa que nos está entendiendo como una persona cuando en realidad se trata de una simulación.
- Yannick Bourseaux
https://en.wikipedia.org - Word2vect
https://www.linkedin.com - Confiar en IA
https://www.servimedia.es - Winograd Schema
https://commonsensereasoning.org