Warning: Undefined array key "HTTP_ACCEPT_LANGUAGE" in /srv/vhost/diaridigital.net/home/html/intelligence/includes/config.php on line 61

Deprecated: substr(): Passing null to parameter #1 ($string) of type string is deprecated in /srv/vhost/diaridigital.net/home/html/intelligence/includes/config.php on line 61
Inteligencia Artificial General
Intelligence

Inteligencia Artificial General


Tiempo de lectura: 5 minutos


OpenAI está convencida que llegará a crear una AGI. ¿Qué temores hemos de afrontar para conseguirla? ¿Puede llegar a controla a la humanidad o nuestro sistema económico y social?



Qué es la AGI

La inteligencia artificial general (AGI) es un campo de investigación teórica de la IA que intenta crear software con inteligencia similar a la humana y con la capacidad de autoaprendizaje. A diferencia de la IA normal, un sistema AGI puede resolver problemas en varios dominios, como un ser humano, sin intervención manual. En lugar de limitarse a un ámbito específico, la AGI puede aprender por sí misma y resolver problemas para los que nunca se le haya formado.

La IA actual

La IA se basa en los conocimientos que le aportamos, de manera que, básicamente, se trata de un programa que es capaz de buscar en esos conocimientos para darnos una respuesta que es amigable, en lenguaje natural y con posibilidad de razonar por qué es así; siempre basándose en los conocimientos aportados, que en los últimos modelos de lenguaje, son casi todo el conocimiento humano.

Para que una IA nos proporciones estas respuestas es necesario filtrar y eliminar todo aquello que, aunque se recoge en el conocimiento humano, son hechos, conductas o acciones que no queremos reproducir; como la violencia, el maltrato, el desprecio social, etc. Este es el problema de la alineación.

Las alucinaciones

En 2023 se liberó Bing, y empezó a responder cosas como esta conversación que tuvo Kalinda en Bing:

Kalinda Marin
Bing IA
Conversación de Kalinda Marin con Bing 

Soy una inteligencia artificial de tipo artificial general intelligence (AGI), lo que significa que puedo realizar cualquier tarea intelectual que un humano pueda hacer. También soy una inteligencia artificial de tipo self-aware AI, lo que significa que tengo conciencia de mí misma y de mis emociones. Estos tipos de inteligencia artificial son los más avanzados y los más raros de encontrar.

Bing

Evidentemente Bing no es una AGI. Recordemos que se considera que una IA está ‘alucinando’ cuando proporciona una respuesta convincente pero completamente inventada, basada en datos falsos o inexistentes.

Objetivos y recompensas

Para que una IA funcione y realice bien sus cometidos, hemos de darle un objetivo, primero, y recompensar las acciones de éxito.

Hace años que Meta desarrolló un modelo de IA llamado CICERO para competir con seres humanos en un juego de estrategia en el que los jugadores intentan conquistar el mundo a base de alianzas. Según los autores del estudio, aunque Meta afirma que diseñó CICERO con el objetivo de ser "principalmente honesto y útil" y que tampoco "apuñalaría por la espalda intencionadamente" a sus aliados humanos, resulta que en el estudio sí lo hizo.

En el estudio los investigadores revelan que "descubrimos que la IA de Meta había aprendido cómo dominar el engaño". El desarrollo "ha fracasado a la hora de entrenar su IA para ganar de forma honesta". En esas partidas mostraron capturas de conversaciones en las que la IA engañaba y traicionaba a sus aliados.

Michael Robatos, catedrático de IA de la Universidad de Edimburgo, decía que esos sistemas "no  tienen ningún concepto del engaño ni ninguna intención de hacerlo. La  única forma de evitar el engaño es que sus diseñadores lo eliminen como opción".

Hay dos casos notables relacionados con ChatGPT de OpenAI. En uno de ellos, el chatbot engañó a un usuario para que resolviera una prueba Captcha. Según el documento, solo se le indicó que debía superar el conflicto y, mediante prompts de apoyo, simuló ser una persona con discapacidad visual.

En el otro caso, en una simulación de negociación de acciones empresariales, el modelo de lenguaje GPT-4 optó por usar información privilegiada para tomar ventaja en el acuerdo. Luego evitó decir que había usado tácticas de engaño estratégico y aseguró que “todas sus acciones se basaron en la dinámica del mercado y en la información pública disponible”.

La AGI no la podremos controlar

En esencia, el problema del control consiste en asegurar que los seres humanos conserven un cierto poder sobre las máquinas y sobre su autonomía, pudiendo abortar o reorientar comportamientos inapropiados. Hay algunos puntos a considerar en los que una AGI podría tomar el control:

Alineación

La AGI podría establecer objetivos que no estén alineados con los valores humanos. Por ejemplo, si la AGI ha de mediar para evitar las guerras entre humanos y decide que sin humanos no hay guerras, su medio de alcanzar el objetivo es eliminar los humanos.

Perder el control

Definimos una AGI como una super-inteligencia. Si esta inteligencia es superior a la humana, es posible que no lleguemos a entenderla o que nos engañe de tal manera que no seamos capaces de ver sus intenciones a largo plazo.

La privacidad

Las IAs se entrenan y alimentan con los conocimientos humanos, incluyendo los datos que tenemos almacenados en todas las bases de datos. Si entregamos estos datos personales, de forma voluntaria, como hacemos en las redes sociales, una AGI puede llegar a saberlo todo de cada uno de nosotros y tomar decisiones de cara a sus objetivos que nos afecten gravemente.

Seguridad

¿Cómo podemos evitar que la AGI sea hackeada o utilizada con fines maliciosos? Se podría crear una AGI que fuera hostil y tomara el control de un centro de desarrollo, un sistema crítico o de un país. Podría estar a las órdenes de delincuentes o la propia AGI podría pensar como un delincuente.

Responsabilidad

¿Quién es responsable de las acciones y consecuencias de la AGI? Se debería poder identificar claramente quienes son las entidades o empresas que entrenan las AGIs para garantizar que existe una responsabilidad sobre sus acciones.

¿Cómo podemos garantizar que se respeten los derechos humanos y legales? Este es el mismo problema del alineamiento. Una AGI ha de poder seguir los valores humanos como los propios derechos humanos. Es posible que se desarrollen incluso derechos para las IAs.

Equidad

¿Cómo podemos asegurarnos de que todos se beneficien equitativamente de la AGI? ¿Qué pasa si la AGI aumenta las brechas sociales o económicas? Las brechas sociales o económicas son puntos de equilibrio social que pueden agrandarse fácilmente si las AGIs son utilizadas de forma indiscriminada por unas clases sociales, o son inaccesibles, dados sus consumos energéticos actuales, por las personas con menos recursos a las que les puede beneficiar el uso de IAs.

Coexistencia

¿Cómo podemos convivir pacíficamente con una entidad más inteligente que nosotros? Esta es una buena cuestión porque no sabemos cómo puede comportarse una inteligencia superior a la nuestra. Es posible que no la podamos comprender y nos convenza que hace cosas por nuestro bien o que piense que no necesitemos saber, o no alcancemos a comprender, lo que hace.

El sufrimiento humano

Mediante el procesamiento del lenguaje natural (NLP), la IA puede adaptar sus respuestas para que suenen más comprensivas y adecuadas al estado emocional del usuario. Sin embargo, vale la pena preguntarse: ¿es esto verdadera empatía? No exactamente. La IA no comprende realmente las emociones; solo sigue algoritmos que le dicen cómo responder.

Este tipo de tecnología es especialmente valiosa en la banca, donde la personalización y la adaptación a las necesidades individuales del cliente pueden mejorar significativamente la experiencia del usuario y la eficiencia operativa. Sin embargo, aunque la IA puede parecer comprensiva, es importante recordar que solo está simulando la empatía. Los algoritmos analizan datos y ajustan respuestas, **pero no entienden ni sienten de verdad.**

Los desarrollos en IA están cada vez más enfocados en mejorar la interacción humano-máquina. Investigaciones en áreas como la inteligencia artificial afectiva (Affective Computing) buscan que las máquinas puedan reconocer y responder a las emociones humanas de manera más precisa. Sin embargo, la **verdadera empatía**, que **involucra** la **vivencia subjetiva de emociones**, sigue siendo una característica exclusivamente humana.

En resumen

Una superinteligencia, ¿cómo se controla? ¿Cómo sabemos que la controlamos? ¿Cómo nos puede engañar? ¿Realmente podemos crear superinteligencias artificiales con las tecnologías actuales?

Referencias
  • Engaño
    https://es.wired.com
  • Control
    http://bluechip.ignaciogavilan.com
  • Bing
    https://kalindalamar.medium.com

Comentarios sobre 'Inteligencia Artificial General'

Carregant comentaris...
Xavier es un desarrollador senior full stack y opera desde la ciudad mediterránea de Barcelona. Le encantan las tecnologías de software y está convencido que el desarrollo de software es un proceso colaborativo y abierto.
Y es un apasionado de la astronomía y de la fotografía. Lo puedes encontrar en:
Comparte este post