La nueva era de la inteligencia artificial.

¿Y si la inteligencia artificial actual no fuera inteligente? La apuesta china por una mente digital real

TongTong (en la foto, al centro) es una agente de inteligencia artificial general (IAG) del Instituto de Inteligencia Artificial General de Pekín (BIGAI), encarnada en un mundo virtual que emula la complejidad del mundo social físico real. Aquí, interactúa con su madre y genera tareas basadas en su función de valor. FOTO: ZHEN CHEN Y XIAOMENG GAO

Un nuevo paradigma se abre paso en el mundo de la inteligencia artificial. Mientras los grandes modelos de lenguaje siguen dominando la escena tecnológica, investigadores como Song-Chun Zhu apuestan por un enfoque más profundo y humano: una inteligencia artificial general (AGI) que no solo imite, sino que comprenda, actúe y evolucione como un ser humano real.

En enero de 2024, el lanzamiento de un nuevo chatbot por parte de DeepSeek sorprendió al mundo de la inteligencia artificial. Este modelo, desarrollado por menos de seis millones de dólares, demostró una eficacia técnica comparable a gigantes como ChatGPT, a pesar de utilizar solo una fracción de su capacidad de procesamiento. Para muchos, esto fue un logro sorprendente en términos de eficiencia; para Song-Chun Zhu, fue una confirmación de que el paradigma actual puede y debe cambiar.

Zhu, un referente mundial en IA y director del Instituto de Inteligencia Artificial General de Pekín (BIGAI), lleva años advirtiendo que la inteligencia artificial basada exclusivamente en big data y procesamiento masivo no es realmente inteligencia. Según él, los modelos actuales no piensan: simplemente reproducen patrones estadísticos. En lugar de buscar más potencia computacional, Zhu propone un giro: una IA que razone, evolucione y actúe por valores.


¿Qué diferencia hay entre la IA actual y la AGI?

“La diferencia entre la IA basada en LLM y la AGI es como la diferencia entre un loro y un cuervo”, afirma Zhu. Mientras los loros pueden imitar palabras sin entenderlas, los cuervos resuelven problemas complejos en el mundo real, aprenden de su experiencia y adaptan su comportamiento.

Este símil es clave para entender el corazón del enfoque de Zhu. Los modelos actuales como ChatGPT o Bard son excelentes para simular conversaciones, escribir textos e incluso programar, pero no comprenden el mundo físico ni sus implicancias morales o sociales. Por el contrario, una AGI debe tener una representación del mundo, de sí misma y de los demás. Debe tener metas propias, razonamiento autónomo y capacidad de adaptación.

Zhu quiere construir una IA encarnada en el entorno real (o simulado) que no solo responda preguntas, sino que tome decisiones, reflexione sobre ellas y aprenda de manera similar a los humanos.


El marco CUV: una visión matemática para la inteligencia

Para definir y evaluar qué es una AGI, Zhu y su equipo desarrollaron el marco CUV, una herramienta conceptual y matemática que estructura la AGI como un punto en un espacio tridimensional:

  • C (Cognitive Architecture): La estructura que simula cómo piensa la IA, similar a los procesos del cerebro humano.
  • U (Utility Functions): Las funciones que representan las capacidades y habilidades de la AGI para actuar en su entorno.
  • V (Value Functions): El sistema jerárquico de valores que motiva a la AGI, guiando sus decisiones y comportamientos.

Este marco permite observar cómo una IA aprende, cambia sus prioridades, reflexiona sobre sus acciones y adapta su conducta a lo largo del tiempo, acercándola a la forma en que un ser humano se desarrolla desde la infancia.


Tong Tong: el primer agente AGI del mundo

El emblema de BIGAI, el carácter chino “通” (Tong), significa “general” y se ha convertido también en el nombre de Tong Tong, la primera agente de AGI desarrollada por el equipo de Zhu.

Tong Tong es una niña digital de entre 3 y 4 años de edad, creada para vivir en un mundo virtual que simula el entorno físico y social real. A diferencia de los chatbots tradicionales, Tong Tong no vive en una burbuja textual. Interactúa con objetos, percibe cambios, responde emocionalmente y actúa según sus propios valores internos.

¿Cómo evaluarla? Para eso se desarrolló la “Prueba Tong”, una evaluación mucho más ambiciosa que la prueba de Turing. Mientras esta última solo busca que una IA pueda engañar a un humano mediante el lenguaje, la prueba Tong evalúa cómo una AGI entiende el mundo, toma decisiones motivadas y se comporta en contextos complejos, ambiguos o morales.

Por ejemplo, observar cómo Tong Tong responde ante un bebé llorando no solo mide su reconocimiento de sonidos o emociones, sino su capacidad para inferir intenciones, tomar decisiones éticas y reflexionar sobre su propio comportamiento.


La seguridad de la AGI: desafíos éticos y filosóficos

Uno de los principales temas que Zhu subraya es la seguridad. Una AGI con motivaciones internas y capacidad de actuar en el mundo físico puede ser benéfica, pero también riesgosa si no se comprende ni se controla adecuadamente.

En el panel SafeAI 2023, Zhu debatió con el reconocido especialista Stuart Russell sobre cómo garantizar la seguridad de estos agentes. Su propuesta es clara: ir aumentando gradualmente las capacidades y autonomía de los agentes, a medida que se demuestra que son controlables, comprensibles y seguros.

“Es como con los robots”, dice Zhu. “Al principio los mantenemos en jaulas. Luego, cuando entendemos cómo funcionan, los dejamos operar en espacios más amplios.” Lo esencial, según él, es comprender y hacer explícita la arquitectura cognitiva de los agentes: si sabemos cómo piensan, podemos anticipar sus decisiones y establecer límites.


Ciencia, filosofía y las enseñanzas del corazón

Zhu no ve el desarrollo de la AGI solo como un desafío técnico. Para él, se trata de una empresa que combina ciencia, filosofía y cultura. Su pensamiento está profundamente influenciado por la filosofía china, en especial por el Yangmingismo, una corriente que sostiene que la realidad se construye a partir de la percepción de la mente.

“El futuro de la AGI debe ser guiado por valores humanos”, dice Zhu, “y para eso necesitamos más que algoritmos. Necesitamos filosofía.” Su antiguo mentor en Harvard, el medallista Fields David Mumford, le entregó un trofeo por su perseverancia en esta búsqueda, reconociendo que lo que está haciendo no es solo tecnología: es una revolución del pensamiento.


Una revolución en marcha

Tong Tong es apenas el comienzo. En BIGAI ya trabajan en nuevos agentes de AGI con distintos perfiles, capacidades y roles sociales. El objetivo es que, algún día, estas inteligencias puedan salir del entorno digital e integrarse al mundo físico a través de la robótica, aportando soluciones en salud, educación, asistencia social y más.

Pero para que eso suceda de forma ética y segura, se necesita tiempo, evaluación y reflexión. Zhu lo sabe. Por eso insiste en la importancia de establecer estándares objetivos, pruebas exigentes y una comprensión profunda de lo que significa “inteligencia”.

En sus palabras:

“Tal vez como sociedad hemos malinterpretado el término IA. Lo que hoy llamamos inteligente, en realidad, aún no lo es. Pero estamos en el camino correcto para descubrir qué significa realmente ser inteligente.”

Y ese camino —lleno de desafíos técnicos, dilemas éticos y preguntas filosóficas— ya ha comenzado.

Publicado en: SCIENCE
Leer el artículo completo en: https://www.science.org/content/article/ai-gets-mind-its-own

Website |  + posts

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *