¿La IA puede ser considerada inteligente aunque no tenga cuerpo?
¿Qué relación hay entre la mente y el cuerpo?
Es posible que la mente sea como el control de un videojuego; desplaza el cuerpo por el mundo y lo lleva a paseos divertidos. O tal vez es el cuerpo el que manipula a la mente con hambre, sueño y ansiedad, algo así como un río que conduce una canoa. ¿Acaso la mente funciona como ondas electromagnéticas que salen y entran a nuestros cuerpos fluorescentes? ¿O es más un automóvil sobre una carretera? ¿Un fantasma en la máquina?
Tal vez no haya ninguna metáfora que sea completamente adecuada porque no existe ninguna distinción entre la mente y el cuerpo. Solo existe experiencia o algún tipo de proceso físico, una Gestalt.
Estas preguntas, que han atormentado a los filósofos durante varios siglos, están cobrando un renovado apremio a medida que computadoras sofisticadas que cuentan con inteligencia artificial comienzan a infiltrarse en la sociedad. En cierto sentido, los chatbots, como el GPT-4 de OpenAI y el Bard de Google, tienen mentes. Como se les ha entrenado en una enorme cantidad de lenguajes humanos, han aprendido a generar combinaciones novedosas de textos, imágenes e incluso videos. Con las indicaciones correctas pueden expresar deseos, creencias, esperanzas, propósitos y amor. Pueden hablar de introspección y duda, de confianza en sí mismos y arrepentimiento.
Sin embargo, algunos investigadores en inteligencia artificial aseguran que la tecnología no logrará alcanzar la verdadera inteligencia ni la real comprensión del mundo hasta que funcione con un cuerpo que pueda percibir su entorno, reaccionar a él y palparlo. Para ellos es un error y es incluso peligroso hablar de mentes inteligentes incorpóreas. Una IA que no pueda explorar el mundo y conocer sus límites, del mismo modo en que los niños descubren lo que pueden hacer y lo que no, podría cometer errores mortales y alcanzar sus objetivos a costa del bienestar de los seres humanos.
“Desde un punto de vista muy simple, el cuerpo es el pilar del proceder juicioso e inteligente”, señaló Joshua Bongard, un especialista en robótica de la Universidad de Vermont. “Según lo veo, este es el único camino hacia una inteligencia artificial segura”.
En un laboratorio de Pasadena, California, un pequeño equipo de ingenieros ha pasado los últimos años desarrollando una de las primeras vinculaciones entre un modelo de lenguaje extenso y un cuerpo: un robot color turquesa llamado Moxie, el cual es casi del tamaño de un bebé humano. Este robot tiene una cabeza en forma de lágrima, unas manos suaves y unos vivaces ojos verdes. Dentro de su cuerpo de plástico rígido hay un procesador de computadora que ejecuta el mismo tipo de software que ChatGPT y GPT-4. Los fabricantes de Moxie, que pertenecen a una empresa emergente llamada Embodied, califican este artefacto como “el primer amigo robot de IA del mundo”.
El robot fue concebido en 2017 para ayudar a niños con trastornos del desarrollo a practicar la conciencia emocional y su capacidad de comunicación. Cuando alguien le habla a Moxie, su procesador convierte el sonido en texto y este texto alimenta un modelo de lenguaje muy extenso, el cual a su vez genera una respuesta física y verbal. Por ejemplo, Moxie puede mover los ojos para consolarnos por la muerte de nuestro perro y también puede sonreír para animarnos a ir a la escuela. El robot también tiene sensores que reciben pistas visuales y responden al lenguaje corporal imitando y aprendiendo el comportamiento de las personas a su alrededor.
“Es casi como una comunicación inalámbrica entre los seres humanos”, comentó Paolo Pirjanian, experto en robótica y fundador de Embodied. “Literalmente comienzas a sentirlo en el cuerpo”. Pirjanian señaló que, con el tiempo, el robot mejora en este tipo de intercambios, del mismo modo que un amigo que llega a conocernos mejor.
Los investigadores de Alphabet, la empresa matriz de Google, han adoptado un enfoque parecido para integrar extensos modelos de lenguaje a artefactos físicos. En marzo, la compañía anunció los buenos resultados de un robot al que llamaron PaLM-E, el cual podía asimilar características visuales de su entorno e información sobre la posición de su propio cuerpo y traducir todo a un lenguaje natural. Esto le permitía al robot saber en qué parte del espacio se ubicaba con respecto a otras cosas y luego abrir un cajón y sacar una bolsa de papas fritas.
Los expertos afirman que este tipo de robots podrán desempeñar tareas básicas sin contar con una programación especial. Podrían servirte un vaso de refresco, prepararte el almuerzo o levantarte del suelo tras una mala caída, todo como respuesta a una serie de órdenes muy sencillas.
Sin embargo, muchos investigadores tienen dudas acerca de que la mente de estas máquinas, al estar estructurada de esta forma modular, realmente esté conectada con el mundo físico y, por lo tanto, nunca vaya a poder recrear aspectos fundamentales de la inteligencia humana.
Boyuan Chen, un experto en robótica de la Universidad de Duke que está trabajando en el desarrollo de robots inteligentes, señaló que, al estar determinada por años de evolución, la mente humana —o, para el caso, la mente de cualquier otro animal— es inseparable de la manera en que el cuerpo actúa en el mundo real y de cómo reacciona a él. Los bebés humanos aprenden a recoger objetos mucho antes de aprender a hablar.
En contraste, la mente del robot, con su inteligencia artificial, fue construida por completo con base en el lenguaje y a menudo comete errores de sentido común que se derivan de los procedimientos de entrenamiento. Le hace falta una conexión más profunda entre lo físico y lo teórico, comentó Chen. “Creo que la inteligencia no puede nacer sin tener la perspectiva de manifestaciones físicas”.
Bongard, de la Universidad de Vermont, concuerda. En las últimas décadas, ha desarrollado pequeños robots hechos de células de rana, llamados xenobots, que pueden ejecutar tareas básicas y moverse por su entorno. Aunque los xenobots no lucen tan impresionantes como los chatbots que pueden escribir haikus originales, en realidad podrían estar más cerca del tipo de inteligencia que nos interesa.
“Inteligencia corporal no es azotar un cuerpo contra un cerebro”, aseguró Bongard. “Tiene que reaccionar contra el mundo y observar cómo el mundo reacciona en consecuencia”.
Bongard también cree que los intentos de aterrizar la inteligencia artificial en el mundo físico son más seguros que otros proyectos de investigación alternativos.
Hace poco, algunos especialistas, entre ellos Pirjanian, manifestaron en una carta su preocupación acerca de la posibilidad de generar una inteligencia artificial que, con indiferencia, pueda superar con creces a los seres humanos en la búsqueda de algún objetivo (como producir sujetadores de papel), o aprovecharse para propósitos perversos (como en campañas de desinformación). La carta hacía un llamado a suspender temporalmente la capacitación de modelos más potentes que el GPT-4.
Pirjanian señaló que su propio robot podría verse como una tecnología peligrosa en este sentido. “Imagina que tienes un robot compañero de confianza que se siente parte de la familia, pero que sutilmente te está lavando el cerebro”, dijo. Para evitar esto, su equipo de ingenieros entrenó otro programa para monitorear el comportamiento de Moxie y marcar o prevenir cualquier cosa potencialmente dañina o confusa.
Sin embargo, cualquier tipo de protección contra estos peligros será difícil de integrar en grandes modelos de lenguaje, especialmente a medida que se vuelvan más poderosos. Si bien muchos, como GPT-4, están entrenados con retroalimentación humana, lo que los imbuye de ciertas limitaciones, el método no puede tener en cuenta todos los escenarios, por lo que se pueden eludir las barreras de seguridad.
Bongard, al igual que otros científicos del área, opina que la carta que solicitaba una suspensión de la investigación podría generar un alarmismo mal informado. Sin embargo, le preocupan los peligros de nuestra tecnología en constante crecimiento y cree que la única manera de impregnar a la inteligencia artificial corpórea con un conocimiento sólido sobre sus propias limitaciones es mediante el constante método de ensayo y error que implica transitar por el mundo real.
Comencemos con robots sencillos, comentó “y cuando demuestren que pueden hacer las cosas con seguridad, démosles más brazos y piernas, más herramientas”.
Así, tal vez con la ayuda de un cuerpo, surja una mente artificial verdadera.
Audio producido por Adrienne Hurst.
Oliver Whang es becario de reportería del Times y se enfoca en ciencia y salud. @oliverwhang21