Como diría cierta hartante expresión, hacerle preguntas al ChatGPT “es tendencia”. Un astuto colaborador de Socompa le hizo ciertas preguntas inquietantes a esa suerte de app de Inteligencia Artificial para descubrir que, por ahora, la app carece de toda aptitud poética. Y no sabe callarse.
Qué grande es el peligro más allá de toda salvación
Caotang Quing
En 1998 (¿o fue en 1999?) el Dalai Lama pasó por Buenos Aires y durante una conferencia de prensa tuve la oportunidad de hacerle una pregunta: ¿Cómo podemos reconciliar la tecnología de la clonación con la creencia en la reencarnación? Ante cientos de periodistas el Dalai Lama vaciló unos segundos y me respondió: “No lo sé. Dame un tiempo para pensarlo”. El desconcierto colectivo se manifestó en un contenido murmullo de asombro.
Pasando por alto la validez lógica de la pregunta, mi curiosidad era más bien poética: si empezamos a multiplicar seres, en qué punto desbaratamos la matemática que sostiene el tráfico natural de las transmigraciones. La pregunta, además, fue formulada con total honestidad, conociendo el interés y la dedicación que el Dalai Lama tuvo desde temprana edad por la ciencia. En todo caso, la conmoción de haber dejado perplejo al líder espiritual del budismo tibetano, sucesor de tulkus, reencarnacion de Avalokiteśvara, la llevo desde entonces como una insignia de honor.
En estas últimas semanas, sin embargo, más de 20 años después, estuve repensando aquel momento. Porque aparece ahora el ChatGPT una poderosa y versátil tecnología que, según proponen sus creadores, todo lo puede responder. Naturalmente me vi impulsado a testear los límites de este nuevo oráculo de Silicon Valley que, aunque se reconoce a sí mismo como una revolución en el campo de la inteligencia artificial y el procesamiento de lenguaje natural, concede no tener conciencia, emociones o sentimientos.
En todo caso no le formulé las típicas preguntas que uno le haría a Google (¿Cuándo se inventaron las motosierras? ¿Cómo se lee un electrocardiograma? ¿Dónde queda Singapur?). Le tiré un par de preguntas que requieren además de una infinita base de datos y una sofisticada capacidad lingüística, una competencia pragmática, social y cultural. La primera pregunta que le hice fue: ¿cómo definiría un payaso el concepto de un contrato? Previsiblemente ChatGPT eligió entender “payaso” en términos puramente laborales y me ofreció una perfecta definición sobre las provisiones y términos de un contrato teatral. ChatGPT puede escribir un ensayo perfecto sobre la ironía pero al parecer no puede experimentarla. En este caso, su precaria lectura de la pregunta revela su falta de sentido común y su rudimentaria competencia contextual.
Solo por curiosidad, intenté una pregunta más: ¿Qué diría una lámpara de lava al pescar un tiburón? De nuevo, la respuesta fue previsible: “UNA LÁMPARA DE LAVA NO TIENE LA CAPACIDAD DE HABLAR NI DE PESCAR, MUCHO MENOS UN TIBURÓN. ADEMÁS UNA LÁMPARA DE LAVA ES UN OBJETO INANIMADO, NO TIENE SENTIDOS NI INTELIGENCIA PARA ACTUAR DE MANERA CONSCIENTE”. Interesante esa acotación de “mucho menos un tiburón” que revela un sarcasmo embrionario; pero la imagen de una lámpara de lava pescando un tiburón no le suscita a ChatGPT más que el tedio matemático de una contradicción.
Un muro de algoritmos en el MoMA
El Museo de Arte Moderno en Nueva York, en su infinita sabiduría, o mejor dicho en su infinito oportunismo, acaba de inaugurar UNSUPERVISED una monumental pantalla de alta definición en la que constantemente fluyen imágenes basadas en algoritmos de aprendizaje automático. La obra es del nuevo wonderboy del arte Refik Anadol, un artista turco-estadounidense que ya ha hecho colaboraciones con Google, Microsoft y Nvidia. Este entorno digital ocupa toda una pared del museo. Los colores, estilos y patrones que vemos en constante y sicodélicas transformaciones están inspirados en la colección del MoMA; una base de datos de más de 200.000 obras de arte. Pueden hacer click acá.
Según el crítico Ben Davis, lo que vemos en UNSUPERVISED “son meros actos aleatorios de síntesis y recombinación de propiedades” no muy diferente a las imágenes creadas por los nuevos modelos generativos de inteligencia artificial como DALL-E. Davis propone que estos entornos puramente decorativos de Anadol, que él artista promociona con metáforas como “sueños mecánicos” o “alucinaciones colectivas”, imposibilitan desarrollar una visión crítica sobre el futuro de estas nuevas tecnologías: “Estas lecturas poéticas de la tecnología nos están vendiendo un cierto estilo de pensamiento sobre la Inteligencia Artificial como una propuesta creativa, en un momento en que la generación de texto y la generación de imágenes por medio de la Inteligencia Artificial se está implementando tan rápido que la sociedad corre contra el reloj para ponerse al día con sus implicaciones”.
La primera instalación de Refik Anadol de 2017, “Archive Dreaming”, es un ambiente hipnótico donde el usuario puede explorar visualmente una base de datos de casi dos millones de documentos. Anadol sostiene que se inspiró en el cuento de Borges “La biblioteca de Babel”, esa biblioteca infinita que contiene todas las combinaciones posibles de letras, palabras y libros. Ahora, las ingenuas metáforas de “sueños”, “memorias” y “alucinaciones” para describir su obra, así como el entusiasmo enceguecido de Anadol, delata una preocupante falta de espíritu reflexivo que se extiende al MoMA y, por carácter transitivo, a nosotros mismos. Otro click, si lo desean.
Anadol no parece haber leído “La biblioteca de Babel” hasta el final, donde el narrador menciona la depresión excesiva, los suicidios cada vez más frecuentes y la extinción de la especie humana. Si la inspiración en la obra de Borges hubiera sido más perspicaz, Anadol habría intuido que el éxito de toda ambición desmedida, ineludiblemente resulta en una profunda insatisfacción. Si hubiera leído otros cuentos de Borges, habría visto que el mapa total termina despedazado; la memoria implacable deriva en estado catatónico y el anhelado desciframiento de la escritura divina promueve el más categórico de los nihilismos.
Para terminar mi examinación precipitada y caprichosa de las posibilidades de ChatGPT le hice una pregunta más, esta vez la que no me había podido responder el Dalai Lama: ¿Cómo podemos reconciliar la tecnología de la clonación con la creencia en la reencarnación?
Esta fue la respuesta:
LA CLONACIÓN Y LA REENCARNACIÓN SON TEMAS CON ENFOQUES Y FUNDAMENTOS DIFERENTES. LA CLONACIÓN SE REFIERE AL PROCESO DE CREAR UN ORGANISMO GENÉTICAMENTE IDÉNTICO A OTRO MEDIANTE TÉCNICAS DE BIOLOGÍA MOLECULAR, MIENTRAS QUE LA REENCARNACIÓN ES UNA CREENCIA ESPIRITUAL QUE SUGIERE QUE EL ALMA O EL ESPÍRITU DE UN SER VIVO PUEDE CONTINUAR EXISTIENDO DESPUÉS DE LA MUERTE EN OTRO CUERPO O FORMA. ES DIFÍCIL RECONCILIAR ESTOS DOS TEMAS YA QUE TIENEN DIFERENTES FUNDAMENTOS CIENTÍFICOS Y FILOSÓFICOS. SIN EMBARGO, UNO PODRÍA ARGUMENTAR QUE LA CLONACIÓN PROPORCIONA UNA COMPRENSIÓN CIENTÍFICA DE CÓMO SE CREA UN ORGANISMO, MIENTRAS QUE LA REENCARNACIÓN SE BASA EN CREENCIAS ESPIRITUALES Y NO TIENE UNA BASE CIENTÍFICA.
Si uno hace la misma pregunta a un buscador como Google, el resultado es un enlace al Instituto Nacional de Investigación sobre el Genoma Humano. De manera que la respuesta de Chat GPT conlleva un salto cuántico. Y sin embargo es tan previsible como aburrida. Me llevó más de 20 años darme cuenta que la respuesta del sucesor de tulkus, la reencarnación de Avalokiteśvara, era la correcta. Es verdad que esa pregunta no tiene mucho sentido, es casi un chiste, un gesto poético, así como la pregunta sobre un payaso definiendo un contrato o una lámpara de lava pescando un tiburón… no son preguntas para responder, son preguntas para escuchar… por eso la mejor respuesta es “No lo sé. Dame un tiempo para pensarlo”.
Los mercados de predicciones pronostican que en unos meros tres años un programa de inteligencia artificial podrá pasar el test de la risa (es decir, mirar un episodio de Seinfeld y reírse en los momentos adecuados); en unos cinco años podrá pasar el test de Turing (es decir, lograr simular la inteligencia humana); y en unos 20 años ya no simplemente simularla sino manifestarla de manera ostensible. Las habilidades del ChatGPT en 2023 son asombrosas, pero hay muchas cosas que, hoy por hoy, no sabe. Pregúntenle, y les dará la lista completa. Sabemos que el ChatGPT, como su nombre lo indica, puede hablar, pero no tiene la capacidad de callarse. Por eso, la humildad epistemológica del Dalai Lama ofrece un criterio alternativo para evaluar el futuro. Podremos decir que hemos alcanzado una revolución en inteligencia artificial el día que una de estas flamantes herramientas conteste a una pregunta de visos poéticos con un simple… “No lo sé. Dame un tiempo para pensarlo”.