Ha pasado un año y ya estamos al servicio de ChatGPT
Hace mucho tiempo que se utilizan distintas formas de inteligencia artificial, pero la presentación de ChatGPT a finales del año pasado fue lo que hizo que la IA entrara de repente en nuestra conciencia pública. En febrero, ChatGPT era, según una métrica, la aplicación de consumo de más rápido crecimiento en la historia. Nuestros primeros encuentros revelaron que esas tecnologías eran extremadamente excéntricas (recordemos la perturbadora conversación de Kevin Roose con el chatbot Bing de Microsoft, impulsado por IA, el cual, en cuestión de dos horas, le confesó que quería ser humano y que estaba enamorado de él) y que, a menudo, como fue mi experiencia, también resultan muy equivocadas.
Desde entonces han pasado muchas cosas en el campo de la inteligencia artificial: las empresas fueron más allá de los productos básicos del pasado e introdujeron herramientas más sofisticadas como chatbots personalizados, servicios que pueden procesar fotos y sonido junto con texto y más. La rivalidad entre OpenAI y las empresas tecnológicas más consolidadas se volvió más intensa que nunca, incluso mientras actores más pequeños ganaban popularidad. Los gobiernos de China, Europa y Estados Unidos dieron pasos importantes hacia la regulación del desarrollo de la tecnología al tiempo que intentaban no ceder terreno competitivo a las industrias de otros países.
Sin embargo, lo que distinguió al año, más que cualquier avance tecnológico, empresarial o político, fue la forma en que la IA se insinuó en nuestra vida cotidiana y nos enseñó a considerar sus defectos —con todo y su actitud espeluznante, errores y demás— como propios, mientras las empresas que la impulsan nos utilizaban hábilmente para entrenar a su creación. Para mayo, cuando se supo que unos abogados habían utilizado un escrito jurídico que ChatGPT había llenado con referencias a resoluciones judiciales que no existían, los que quedaron mal, como lo ilustra la multa de 5000 dólares que los abogados tuvieron que pagar, fueron ellos, no la tecnología. “Es vergonzoso”, le dijo uno de ellos al juez.
Algo parecido ocurrió con los ultrafalsos producidos por la inteligencia artificial, suplantaciones digitales de personas reales. ¿Recuerdan cuando los veíamos con terror? Para marzo, cuando Chrissy Teigen no podía discernir si era auténtica una imagen del papa con una chaqueta acolchada inspirada en la marca Balenciaga publicó en redes sociales este mensaje: “Me odio, lol”. Los bachilleratos y las universidades pasaron rápidamente de preocuparse por cómo evitar que los estudiantes utilizaran la IA a enseñarles a utilizarla con eficacia. La IA sigue sin ser muy buena para escribir, pero ahora, cuando muestra sus carencias, son los estudiantes que no saben usarla de quienes nos burlamos, no de los productos.
Quizá pienses que eso está bien, ¿pero no nos hemos adaptado a las nuevas tecnologías durante la mayor parte de la historia de la humanidad? Si vamos a utilizarlas, ¿no deberíamos ser más inteligentes? Esta línea de razonamiento sortea la que debería ser una cuestión central: ¿debería haber chatbots mentirosos y motores de ultrafalsos disponibles en primer lugar?