El Proyecto Q* de OpenAI
Tiempo de lectura: 4 minutos
Se habla mucho del Proyecto Q* de Open AI (Q*) que podria ser el desarrollo de una superinteligencia artificial que sobrepase la capacidad humana en mucho.
La consciencia
En la actualidad, tras ver los casos en que inteligencias artificiales (IA) han protagonizado situaciones de violencia verbal, o de desafío o, simplemente, malfuncionamiento, se ha instalado en la sociedad un sentimiento de impotencia en caso que las IA se revelen contra nosotros.
El paradigma de la programación tradicional es la obtención de resultados a partir de datos y reglas, que configuran los algoritmos. El paradigma de la inteligencia artificial es el de obtener las reglas que, a partir de los datos, nos dan determinados resultados.
Los que conocemos la base de las IA, somos conscientes que no entendemos el proceso por el que se tratan los datos para obtener los resultados esperados y se está trabajando en este problema para poder dar soluciones a las respuestas incontroladas de las IA. Pero lo primero es entender el proceso tal y como se explica en Inteligencia Artificial eXplicable o en Pero, ¿cómo funciona la IA?.
En cualquier caso, las IAs, actualmente, se limitan a procesar datos. En unos casos, los resultados son discretos, como cuando se evalúa un escáner para determinar si un paciente puede estar desarrollando un cáncer o no. En otros, son textos generados de forma predictiva que nos dan la aparente sensación que la IA realmente entiende lo que nos está explicando.
Nuestra percepción
Si una IA genera texto de forma predictiva y nos ofrece un chorro de palabras, somos capaces de darle un significado, aunque no estén en orden gramatical correcto, y podemos atribuir al autor que sabe de lo que habla y, por lo tanto, lo razona.
En cambio, si ese mismo texto predictivo está escrito en lenguaje matemático en seguida podemos ver si es correcto o no. No sirve que se hayan cambiado los términos, solo hay una respuesta correcta. Y si no es correcto, entendemos que el autor no sabe nada, de nada, de matemáticas. ni de razonar.
Esto es lo que está ocurriendo con las IAs. Y aquí entra el Proyecto Q*.
Son estos últimos casos los que interpretamos con la antropomorfización, dar cualidades humanas a algo, para creer en ello como que la IA es un ser vivo que entiende lo que nos dice y, por lo tanto, es consciente.
Este caso, en realidad, es una falacia. No podemos decidir siquiera si una programa que simula un comportamiento, por muy humano que parezca, es consciente de ello. Entre otras cosas porque no sabemos realmente qué es la consciencia. Sí, sabemos que es ser consciente de uno mismo, de que existimos, pero no podemos ir más allá. Y solo podemos inferir que otro ser es consciente por su comportamiento, aunque sea aparente.
Este comportamiento, en una IA, es una representación del aprendizaje que da valores a una serie de parámetros en una fórmula. Que posteriormente puede procesar datos para darnos respuestas que nos parecen inteligentes, que creemos que han sido elaboradas por una consciencia, en apariencia. Pero a día de hoy, esto es una simulación. Creada por nosotros mismos.
Los peligros
¿Cuál es el peligro de los desarrollos en inteligencia artificial? El peligro es el uso que hagamos de las IAs. Este es el peligro real, que no viene dado por esos algoritmos conscientes sino por la mala interpretación que hacemos de los datos proporcionados por las IAs. Nuestra capacidad de proyectar humanidad o consciencia en lo que nos parece consciente es nuestro error. Por eso hemos de regular el uso que les damos a las IAs, pero no al desarrollo de estas.
Proyecto Q*
El proyecto Q* parece ser un nuevo nivel en el desarrollo de la IA en el que se mejore el razonamiento y, por tanto, se aplique razonamiento a las decisiones. Además podrían ser capaces de aprendizaje acumulativo, algo que tenemos los humanos.
Uno de los puntos que se pretende probar es que la IA pueda resolver problemas matemáticos, que actualmente no puede, demostrando que se aplica ese razonamiento analítico y abstracto que requiere la resolución de problemas matemáticos.
Este es un gran paso en el camino de desarrollar una auténtica inteligencia artificial. Andrew Rogoyski, un director del Surrey Institute for People-Centered AI dice que "en el caso de las matemáticas, sabemos que se ha demostrado que las IA existentes son capaces de realizar matemáticas de nivel universitario, pero tienen dificultades con algo más avanzado".
Continua diciendo, "sin embargo, si una IA puede resolver problemas nuevos e invisibles, no sólo regurgitar o remodelar el conocimiento existente, entonces esto sería un gran logro, incluso si las matemáticas son relativamente simples."
De conseguir este hito, deberíamos replantearnos si todavía podemos distinguir una entidad consciente de una que simula la consciencia. Pero también deberíamos progresar en el estudio de la consciencia humana para saber más de lo que nos hace ser conscientes de nosotros mismos.
Para mí, AGI... es el equivalente a un ser humano promedio que podrías contratar como compañero de trabajo
Sam Altman, CEO de OpenAI
En cualquier caso entraremos en un nuevo periodo de preocupaciones éticas en el que se abrirán nuevos frente de debate. Pero los más importante es si estos algoritmos serán un peligro real para la humanidad.
- Superinteligencia
https://tech.co