Warning: Undefined array key "HTTP_ACCEPT_LANGUAGE" in /srv/vhost/diaridigital.net/home/html/intelligence/includes/config.php on line 61

Deprecated: substr(): Passing null to parameter #1 ($string) of type string is deprecated in /srv/vhost/diaridigital.net/home/html/intelligence/includes/config.php on line 61
Geoffrey Hinton
Intelligence

Geoffrey Hinton


Tiempo de lectura: 3 minutos


Un hombre ampliamente considerado como el padrino de la inteligencia artificial (IA) renunció a su trabajo, advirtiendo sobre los crecientes peligros derivados de los avances en este campo.



Dice Hinton

Algunas de las cosas que dice Geoffrey Hinton

En este momento, hasta donde yo sé, no son más inteligentes que nosotros, pero creo que pronto lo serán.

Ahora, lo que estamos viendo es que cosas como GPT-4 eclipsan a una persona en la cantidad de conocimiento general que tiene y la eclipsan por mucho. En términos de razonamiento, no es tan bueno, pero ya lo hace. Razonamiento simple

Geoffrey Hinton

Malos actores

Una cosa son los malos actores, que utilizarán la IA para fines maliciosos, esto es algo que está pasando con todas las tecnologías, pero eso no significa que las IA sean conscientes y pretendan dominar el mundo.

Ojo a este dato. Aunque actualmente la inteligencia artificial ya puede ser herramienta de desinformación por medio de creación de contenido difícil de validar, expertos de la industria han advertido que la tecnología incluso podría superar a los humanos y dar lugar a escenarios caóticos entre grandes poderes como los medios de comunicación, la política o la educación.

El tema es que, usando IA, es posible hacer un control de las masas que sea tan sutil que no sepamos que somos presa de un engaño, por ejemplo. Recordemos el caso de los posts en redes sociales de cara a las elecciones presidenciales de EE.UU. Esto es algo que tenemos que gestionar como sociedad. O bien, regular a través de normativas, como pretende hacer Europa.

Ayuda mucho que los humanos seamos tan fácilmente sugestionables.

Parece que uno de los temores de Geoffrey Hinton es la capacidad de aprendizaje, comunicación y atesoramiento de información de las IAs. Aunque no sean conscientes de lo que hacen, pueden dar respuestas y compartir información de forma casi instantánea. Además, se pueden hacer varias copias de IAs y todas pueden aprender en paralelo y compartir conocimientos.

Esto es algo que puede ser genial, pero tendríamos que encapsularlo, no en robots inteligentes, sino en bibliotecas de conocimiento.

Decisiones de las IAs

¿Pueden las IAs tomar decisiones como si desearan controlar el mundo? Esta es la pregunta que tiene una respuesta que no es la que queremos oir. Las IAs puede tomar decisiones para conseguir objetivos marcados de antemano. Y no se paran a considerar las consecuencias de estas decisiones. Esto es un problema. Pero, ¿ha de ser así? No. Lo que hemos de conseguir es que las redes neuronales que procesan estes tipo de algoritmos, estén sometidas a supervisión por otras IAs que tengan esa finalidad.

Es como dejar que un coche de conducción autónoma se entrene para llegar lo más ràpido posible de un punto a otro, sin importar a quién atropelle. Está claro que no permitiríamos esto y que pondríamos sistemas de control para evitar daños en personas o en infraestructuras. Lo mismo tiene que pasar con las IAs.

El control de las IAs

¿Podemos darle el control de nuestros sistemas a una IA? Yo entiendo que no. Que por mucho que parezca que son inteligentes, recordemos, son programas basados en los datos que hemos generado los humanos. Esta es la razón que parezcan humanas, porque han aprendido de los humanos. Y parecen humanas porque somos nosotros quienes los antropomorfizamos (dar cualidades humanas a una cosa).

Generación de imágenes

Todos esto pasa no solo en el campo de los chatbots, sino en todos los campos de la IA. Si entramos en la generación de imágenes, los resultados pueden ser espeluznantes, pero desde el punto de vista de una IA, no deja de ser una combinación "aleatoria" de puntos que solo los humanos interpretamos como una imagen del mundo.

Conclusión

Hinton no es el primer ingeniero de Google que levanta la mano y sale de la compañía.

Creo que, si hemos de temer a la IA, en realidad hemos de temernos a nosotros mismos. Las IAs son un reflejo de la humanidad y sabemos lo peligrosos que somos para nosotros mismos.

En resumen, no hemos de temer al desarrollo de la IA como tal, hemos de temer a lo que una mente insana podría hacer con ella. No estamos hablando de crear una Skynet, estamos hablando de una herramienta para cualquiera que no tenga buenas intenciones.

Esto sí que es escalofriante.

Referencias

Comentarios sobre 'Geoffrey Hinton'

Carregant comentaris...
Xavier es un desarrollador senior full stack y opera desde la ciudad mediterránea de Barcelona. Le encantan las tecnologías de software y está convencido que el desarrollo de software es un proceso colaborativo y abierto.
Y es un apasionado de la astronomía y de la fotografía. Lo puedes encontrar en:
Comparte este post