De 1950 a Q*: la odisea continúa en la búsqueda de la AGI-inteligencia artificial general

Desde la década de 1950, la idea de la Inteligencia Artificial General (AGI) ha cautivado la imaginación de científicos y entusiastas por igual. Ahora, con el desarrollo del proyecto Q* de OpenAI, nos encontramos en un punto de inflexión. ¿Estamos viviendo la precuela de una realidad que solo se había imaginado en obras como ‘2001: Una Odisea del Espacio’

Explora la convergencia de AGI y '2001: Una Odisea del Espacio' en esta interpretación artística al estilo renacentista de Proportione. La imagen, inspirada en Leonardo da Vinci, fusiona elementos icónicos de la película con la sofisticación de las proporciones áureas y la paleta de colores de Proportione, simbolizando la unión del arte clásico y la inteligencia artificial avanzada.

Q* de OpenAI: ¿una precuela de ‘2001: Una Odisea del Espacio’?

La representación de HAL 9000 en ‘2001: Una Odisea del Espacio’ de Stanley Kubrick y Arthur C. Clarke, nos ofreció una visión temprana de lo que podría ser una AGI. En la actualidad, los avances en el proyecto Q* de OpenAI parecen ser los primeros pasos hacia la realización de una inteligencia artificial con capacidades comparables a las humanas. Este proyecto podría representar una etapa preliminar hacia el tipo de AGI que HAL 9000 personificó.

Marco teórico de la AGI desde 1950

Las aspiraciones hacia la AGI comenzaron en la década de 1950, con investigadores como Herbert A. Simon y Marvin Minsky, quienes creían en la posibilidad de máquinas capaces de realizar cualquier trabajo humano en pocas décadas. A lo largo de los años, este marco teórico ha evolucionado desde modelos de redes neuronales hasta sistemas formales para el razonamiento deliberativo y definiciones matemáticas de inteligencia general adaptativa.

Coincidencias entre Q* y el marco teórico de la AGI

El desarrollo de Q* en OpenAI refleja varios aspectos de estas visiones tempranas. Aunque la información disponible sobre Q* es limitada, su aparente habilidad para resolver problemas matemáticos a nivel escolar con un enfoque novedoso sugiere un avance hacia la adaptabilidad y la versatilidad características de la AGI. Este enfoque en mejorar las habilidades de razonamiento de los modelos de IA se alinea con los objetivos originales de la AGI de replicar la cognición humana compleja.

Q* es un hito
El proyecto Q* marca un hito en la historia de la inteligencia artificial. Aunque todavía no hemos alcanzado una AGI completa, iniciativas como Q* indican que estamos avanzando hacia la realización de una visión que comenzó hace más de medio siglo. Nos encontramos en la cúspide de un nuevo capítulo en la IA, uno que podría ser recordado como el inicio de la verdadera era de la AGI.

La carrera global por la AGI y las ideologías que la impulsan.

1. La lucha ideológica en la Carrera hacia la AGI:
En el contexto actual, como en la película ‘2001: Una Odisea del Espacio’, donde una inteligencia artificial se encuentra en el centro de un drama humano y tecnológico, OpenAI se encuentra en una lucha interna significativa. Por un lado, los altruistas efectivos (EAs) se adhieren a la misión original sin fines de lucro de la organización, mientras que por otro lado, un grupo impulsado por el potencial comercial de ChatGPT y otros desarrollos de IA busca acelerar su crecimiento y aplicación. Esta división refleja una guerra ideológica que se extiende más allá de OpenAI, resonando en las redes sociales, foros de internet, y en la mente de fundadores, investigadores y políticos que moldean el futuro de la IA.

2. Seguridad y Ética en la Inteligencia Artificial:
La seguridad en IA, un tema que ha sido de importancia desde los días de Isaac Asimov, ha tomado pasos significativos en los últimos diez años. Con el aumento de preocupaciones sobre AI ‘rogue’ que podría terminar con la civilización, figuras como Nick Bostrom y Eliezer Yudkowsky han abogado por regulaciones estrictas. Paralelamente, el crecimiento de la ideología del Altruismo Efectivo (EA) ha puesto en foco la seguridad en IA, especialmente en relación con el potencial destructivo de la AGI.

3. Efecto Aceleracionista y la Competencia Global por la AGI:
Mientras tanto, el aceleracionismo efectivo (e/acc) representa una filosofía emergente que desafía las preocupaciones de seguridad en IA, enfocándose en acelerar el crecimiento tecnológico y el cambio societal. Los defensores de e/acc, como Guillaume Verdon, argumentan que la IA debería ser desarrollada de manera abierta y accesible, sin restricciones de seguridad excesivas, creyendo que esto conduciría a formas de conciencia emergente y variedades más amplias de sentiencia. Este enfoque choca directamente con la visión más cautelosa y regulada de la IA propuesta por los EAs y otros proponentes de la seguridad en IA.

4. Reflexiones sobre el Futuro de la IA:
Al observar estas facciones y sus creencias casi religiosas sobre la IA y la AGI, se plantea un futuro incierto. Nadie sabe cómo se desarrollará la próxima década en relación con la IA. Esto nos lleva a una pregunta crucial: ¿es mejor permanecer flexibles y evitar dogmas en un campo tan rápidamente cambiante y potencialmente transformador como la IA? La historia nos muestra que el equilibrio entre la innovación audaz y la prudencia informada ha sido siempre una línea delicada, especialmente en un campo tan poderoso y de rápido avance como la inteligencia artificial.

Analogías con la película:

En la carrera hacia la AGI, estamos viendo un reflejo de las tensiones y expectativas que ‘2001: Una Odisea del Espacio’ planteó hace décadas. Q* de OpenAI podría ser solo un paso en esta larga odisea, una que nos lleva a través de un laberinto de innovaciones tecnológicas, dilemas éticos y competencia global. La carrera hacia la AGI no es solo una carrera de tecnología; es una carrera de ideas, valores y visiones para el futuro de la humanidad.

Desarrollos Recientes en la Búsqueda de la AGI

Uno de los desarrollos más intrigantes en la búsqueda de la AGI es el reciente proyecto Q* de OpenAI. Este proyecto, revelado tras una controversia interna que llevó a la breve destitución de Sam Altman como CEO de OpenAI, ha generado expectativas de un avance significativo hacia la AGI. La preocupación expresada por los investigadores de OpenAI sobre las potenciales amenazas de un «poderoso sistema de inteligencia artificial» subraya la magnitud y las implicaciones éticas de este empeño.

Definir la AGI ha sido un reto en sí mismo. Varios expertos han ofrecido definiciones, viéndola generalmente como una inteligencia artificial capaz de realizar una amplia gama de tareas, similar al cerebro humano. OpenAI describe la AGI como sistemas «altamente autónomos que superan a los humanos en la mayoría de los trabajos económicamente valiosos». Un equipo de DeepMind, en un esfuerzo por precisar estos conceptos, ha propuesto un marco para clasificar las capacidades y comportamientos de los modelos de AGI. Su objetivo es establecer un lenguaje común para medir el progreso, comparar enfoques y evaluar riesgos.

En su clasificación de los niveles de AGI, el equipo de DeepMind identificó varios niveles, desde «Nivel 0, Sin AGI» hasta «Nivel 5, Superhumano». Los modelos actuales como ChatGPT, Bard y Llama 2 solo han alcanzado el «Nivel 1, Emergente». Esto indica que, a pesar de los avances, aún estamos lejos de alcanzar una AGI completa. Programas como Siri, Alexa y Google Assistant están en el «Nivel 2, Competente», mientras que AlphaFold de DeepMind, en el «Nivel 5, Superhumano», representa lo más avanzado en este espectro.

Estos avances en la definición y clasificación de la AGI son cruciales para comprender su trayectoria y las expectativas realistas. A medida que nos acercamos a lograr una AGI, los desafíos éticos y las consideraciones de seguridad se vuelven cada vez más importantes. En esta carrera hacia la AGI, al igual que en ‘2001: Una Odisea del Espacio’, no solo enfrentamos un viaje de descubrimiento tecnológico sino también un viaje de introspección y definición de nuestros valores y visiones para el futuro.

Referencias:

  1. «History and Evolution of AGI: Tracing its Development from Theoretical Concept to Current State – Just Think AI». Consultado en [fecha].
  2. «Report: OpenAI board’s ouster of Sam Altman followed potential AGI breakthrough – SiliconANGLE». Consultado en [fecha].
  3. «Artificial general intelligence – Wikipedia». Consultado en [fecha].
  4. «The ideologies fighting for the soul (and future) of AI» por Charlie Guo.
  5. Información adicional sobre la seguridad en IA y las ideologías en juego en el desarrollo de la AGI.

Posted

in

by

Tags:

English