Tras la sonora carta pública firmada por millonarios, CEO´s y científicos para pausar el desarrollo de la Inteligencia Artificial, se suman otras voces que temen alguna catástrofe. En el debate resuena la Historia, incluidas las discusiones en el desierto cuando se creó la bomba atómica. La carta original completa.
La Inteligencia Artificial (IA) es ahora el mega trend-topic y el fantasma definitivo de la humanidad, como antes fue el desciframiento del ADN humano y sus usos potenciales (¿solo para ricos?), que nutrieron un nuevo campo de discusión: la bioética. Y como antes fue, primero a fines de la Segunda Guerra en las instalaciones secretas de Los Álamos, y luego con Einstein a la cabeza y la carta al presidente Franklin Roosevelt, el terror al holocausto nuclear. “No sé con qué armas se peleará la Tercera Guerra Mundial pero la Cuarta se librará con palos y piedras”, etc.
Se dice a veces que la literatura no sirve para nada excepto quizá para el placer del escritor y eventualmente el del lector. Pero la ciencia-ficción, desde sus primeros clásicos ya remotos, lo previó todo. Si se trata de IA, el Despertar Horrendo de las Máquinas tiene una larga genealogía. Aunque se trate acaso de puro entretenimiento, la criatura más masiva, por cuestión de pantalla grande (cuando no existía Netflix), es la saga de Terminator. Allí lo que sea que se despierta lo hace en la corporación Skynet, capaz de controlar el arsenal nuclear completo de los EEUU sin necesidad de Homo sapiens, más bien en contra. Skynet, en la película, es una empresa subcontratada por el Pentágono. Hay muchas, pero muchas Skynet en este mundo cruel. En otras expresiones de Sci-Fi la IA pretende protegernos de nosotros mismos de pura desprendida y amorosa pero las cosas salen mal. Lo que hoy se discute no necesariamente son guerras de robots contra humanos con muchas explosiones sino asuntos más complejos y extensos. Y aunque no necesariamente haya escenas de acción, sí, asustan.
El 29 de marzo pasado se conoció la carta que pidió un cese del fuego de seis meses en las investigaciones sobre IA porque ésta puede representar “una amenaza contra la humanidad”. La carta fue firmada por mil expertos y poderosísimos señores como Elon Musk, el cofundador de Apple, Steve Wozniak, el director ejecutivo de Stability AI, Emad Mostaque o investigadores de la firma DeepMind, empresa inglesa de IA creada en 2010. La carta que comenzó con mil firmas ahora lleva más de 27 mil adhesiones.
Si lo dice El Padrino…
Hace apenas días The New York Times publicó un extenso artículo con entrevista incluida a Geoffrey Hinton, pionero, casi inventor y gurú, de la IA. Hinton no quiso ni firmar la carta ni hablar hasta renunciar a su puestazo en Google por esas cuestiones éticas o extorsivas que existen entre las corporaciones yanquis y sus cuadros más altos, hasta el guatemalteco que limpia los baños. Entre otras cosas, el llamado “Padrino”, pero no de la mafia sino de la IA, dijo: “Cuanto más mejoran los sistemas, más peligrosos se vuelven. Basta recordar cómo era hace apenas hace cinco años y cómo es ahora.Si tomas ese lapso de tiempo y proyectas esa aceleración hacia adelante, mete miedo”.
Hinton tiene miedo –entre otras cosas- a Terminator; teme que las armas autónomas de los humanos se hagan realidad. Subraya: “Eran muy pocos los que pensaban que estas cosas realmente podían volverse más inteligentes que las personas (…) La mayoría, entre los que me incluyo, pensamos que todavía eso estaba muy lejos. Yo creía que faltaban 30 o 50 años más”.
Socompa viene abordando el tema de la IA con prudente distancia y no porque seamos machirulos. La última vez fue publicando un texto firmado por Noam Chomsky y otros expertos diciendo que, si se trata solo de la última moda, el ChatGPT, el coso no es tan inteligente como se dice, o al menos carece de la creatividad de la inteligencia humana, la capacidad crítica, tanto como de la ética presunta de los seres humanos, donde presunta debería ir en negritas. Y capacidad crítica también.
Pero el ChatGPT es solo una de las expresiones y potencialidades de la IA. En otras notas que publicamos en esta web (dos de ellas dedicadas a las ideologías y proyectos largoplacistas de Silicon Valley), con acidez zurda y acaso exceso de ironía, hablamos de la agenda temerosa que pretenden imponer al mundo los megamillonario (incluyendo la moda del “altruísmo efectivo”), muchos de ellos capos de las Big-Tech.
Esos temores filantrópicos no pasan por la explotación del hombre por el hombre, la alienación, la miseria, la plusvalía. Cuando hablan de enfermedades o hambre en el mundo la pifian, a posta o no. Pero sí hablan estos capos (y modelizan futuros) de un intenso cagazo ante el cambio climático, guerras con armas biológicas o nucleares, y la IA (están también, con ellos, los que quieren gobernar el mundo desde islas paradisíacas y los que quieren tener muchos hijos, como Susanita, solo que perfeccionados genéticamente para imponerse a la negrada).
Lo que cuestionan centralmente esos artículos publicados por Socompa puede decirse así:
- Y vos quién sos (ya sé que sos megamillonario) para decidir a qué le debe temer la humanidad.
- Y vos quién sos para establecer prioridades en la materia.
- Y vos quién sos para decidir a dónde deben ir los recursos que salven al planeta.
- Y por qué debo confiar en el criterio y en los algoritmos de los sabios (y tecnócratas) que te rodean (equipos, diría Macri).
- Y, decime, ¿qué sensibilidad demostraste hasta ahora? ¿Vos sos el que está despidiendo, como Elon Musk y otros, a miles de trabajadores precarizados de tus mega empresas tecnológicas?
Con el Pentágono, no
Volvemos a Geoffrey Hinton, El Padrino de la IA. En 2018 él y sus colaboradores históricos recibieron el Premio Turing,que viene a ser como un Nobel cibernético, por su trabajo en redes neuronales. Pero hay algo más interesante en su biografía que se nos hace simpático, o al menos llamativo: En los ‘80 Hinton dejó su lustroso cargo de profesor en Ciencias de la Computación en la Universidad Carnegie Mellon y se rajó a Canadá porque no quería recibir fondos del Pentágono. Y es que, como apenas comienza a decirse de manera apenas masiva, una abrumadora mayoría de los “avances” científico-tecnológicos que enriquecen a las grandes corporaciones antes fueron financiados por el Estado. Sea vía Departamento de Defensa de los EEUU, universidades u otras instituciones bancadas por el Estado. Hinton es un enemigo acérrimo de Terminator o cualquier uso de la IA que se parezca a un soldado robot en el campo de batalla.
El tipo parece consciente de la Historia y sus paralelos. Es como si –volviendo a las instalaciones secretas de Los Álamos- acabara de estar al lado mismo de Robert Oppenheimer, director del Proyecto Manhattan, discutiendo qué demonios estamos haciendo con esto de la bomba con sus colegas Enrico Fermi (Nobel 1938), Harold C. Urey (Nobel 1934), Willard Frank Libby (Nobel 1960), Leó Szilárd (físico y “arrepentido”, autor de la carta dirigida a Roosevelt para que EEUU no empleara la bomba), James Chadwick, descubridor de los neutrones (Nobel 1935) y más físicos: Isidor Rabi (Nobel 1944), Hans Bethe (Nobel 1967), Richard Feynman (Nobel 1965), Luis Walter Álvarez (Nobel 1968) y el húngaro Edward Teller, padre de la bomba de hidrógeno.
Es conocido que a propósito de la primera prueba nuclear hecha en el desierto de Nuevo México Oppenheimer recordó: “Sabíamos que el mundo no sería el mismo. Algunos rieron, algunos lloraron, la mayoría guardó silencio”.
Un poco menos conocido es el discurso que dio Oppenheimer, ya bombardeadas Hiroshima y Nagasaki con un costo de cien a doscientas mil vidas, apenas dos meses de que finalizara la guerra:
“Creo que no hace falta decir por qué el impacto es tan fuerte. Hay tres razones: una es la extraordinaria velocidad con la que las cosas que estaban justo en la frontera de la ciencia se tradujeron en términos que afectaron a muchas personas vivas, y potencialmente a todas las personas.
“Otro es el hecho, bastante accidental en muchos sentidos, y relacionado con la velocidad, de que los propios científicos desempeñaran un papel tan importante, no sólo proporcionando la base para las armas atómicas, sino también fabricándolas.
“La tercera es que lo que hicimos realmente llegó al mundo con una realidad tan devastadora y tan repentina que no hubo forma de preverlo”.
El penúltimo “arrepentido” de la IA, Geoffrey Hinton, parece dialogar con Oppenheimer y la Historia cuando dice cosas como estas: “Hay una parte de mí que lamenta el trabajo de toda mi vida (…) Me consuelo a mí mismo con la excusa habitual: de no haber sido yo, lo habría hecho otro”. También dice algo que se parece a un lugar común de cualquier película de Hollywood: “No veo la forma de prevenir que actores malintencionados lo usen para hacer daño”.
¿Una catástrofe silenciosa? No para Bill Gates
Es cierto que no hay un cielo incendiándose y un inmenso hongo naranja desenroscándose en el horizonte de temores de Hinton. La cosa es menos espectacular pero no menos grave. El hombre ve un futuro inmediato –el hoy multiplicado por cien mil- de Internet estallada con mensajes, fotos, videos -todos falsos y desatados por la IA- y odio, mucho odio y que las buenas gentes “ya no puedan saber lo que es verdad” (como sucede hoy, repetimos, pero multiplicado por cien mil).
Eso es lo que sucedería en los mundos virtuales, con impacto impredecible en los reales… mientras que en los reales la IA arrasaría con millones de empleos en oficinas, administraciones, call centers, quién te dice redacciones (total…), autores de papers y hasta despachos de autores de discursos presidenciales.
El amigo Bill Gates, por ahora, respondió a todo este debate de lo más panchito: ve a la IA como una utopía que liberará a las personas del yugo y esas personas dedicarían su tiempo libre a cortar el césped o a un taller literario. Lo que no explica Gates es de qué vivirían los liberados.
“No creo –dijo Gates a Reuters- que pedirle a un grupo en particular que haga una pausa resuelva los desafíos (…) Claramente, hay enormes beneficios en estas cosas. Lo que debemos hacer es identificar las áreas difíciles”. Claro, Gates invirtió 10 mil millones de dólares en OpenIA, creadora del GPT. Mientras que nadie dice demasiado nuevo acerca de la posibilidad evidente de que –aun durante algún tipo de tregua como la que reclaman los firmantes de la primera carta- corporaciones, Pentágonos o gobiernos continúen desarrollando la IA a espaldas de la sociedad, acaso en eso que se llama “Estado profundo”.
La carta tan sonora
Si nos permiten, ahora, aun en la suspicacia, pero con el bocho más sensible y abierto, nos permitimos publicar la versión completa y extensa de la carta originalmente firmada vía Future for Life Institute (una fundación sin fines de lucro en la que no confiamos) por mil personas en principio sabedoras del asunto de la IA y de los peligros que entraña. Respetaremos las itálicas y las negritas originales.
“Los sistemas de IA con inteligencia humana-competitiva pueden plantear riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación (refiere a un estudio de 2021) y reconocido por los principales laboratorios de IA. Como se establece en los Principios de IA de Asilomar ampliamente respaldados (N del E: una conferencia realizada en 2017 por el Future for Life Institute), la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos correspondientes . Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender. predecir o controlar de forma fiable.
Los sistemas de IA contemporáneos ahora se están volviendo competitivos para los humanos en tareas generales, y debemos preguntarnos: ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los de cumplimiento? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Tales decisiones no deben delegarse en líderes tecnológicos no elegidos. Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema. La declaración reciente de OpenAI con respecto a la inteligencia general artificial establece que “En algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados para acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos”. Estamos de acuerdo. Ese punto es ahora.
Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria”.
La carta continúa así:
“Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieren a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes.
La investigación y el desarrollo de IA deben reenfocarse en hacer que los sistemas potentes y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.
Paralelamente, los desarrolladores de IA deben trabajar con los legisladores para acelerar drásticamente el desarrollo de sistemas sólidos de gobierno de IA. Estos deben incluir como mínimo: autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA de alta capacidad y grandes conjuntos de capacidad computacional; sistemas de procedencia y marcas de agua para ayudar a distinguir las fugas reales de las sintéticas y rastrear modelos; un sólido ecosistema de auditoría y certificación; responsabilidad por daños causados por IA; financiación pública sólida para la investigación técnica de seguridad de la IA; e instituciones bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente en la democracia) que provocará la IA.
La humanidad puede disfrutar de un futuro floreciente con la IA. Habiendo tenido éxito en la creación de poderosos sistemas de IA, ahora podemos disfrutar de un “verano de IA” en el que cosechamos las recompensas, diseñamos estos sistemas para el claro beneficio de todos y le damos a la sociedad la oportunidad de adaptarse. La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de un largo verano de IA, no nos apresuremos a caer sin estar preparados”.
Aquel lector que quiera y pueda acceder al portal con el original de la carta verá hacia el final que dice esto: “Hemos preparado algunas preguntas frecuentes en respuesta a preguntas y discusiones en los medios y en otros lugares. Puedes encontrarlos aquí”.
Para terminar. Hubo otros dos hombres que, como algunos de los científicos del Proyecto Manhattan, se arrepintieron de hacer lo que hicieron. Uno fue el fisiólogo y biólogo vegetal estadounidense, Arthur Galston, cuyas investigaciones llevaron a la producción del agente naranja desparramado (20 millones de galones, o cerca de 80 millones de litros) por medio Vietnam. El otro fue el camarada Mijaíl Kalashnikov, diseñador del célebre fusil automático AK-47.
En cuanto a Oppenheimer –no viene a cuento reabrir el debate acerca de su honestidad intelectual-, alguna vez, se sabe, aludió a uno de sus tormentos, cuando se le venían a la mente las palabras del texto sagrado hinduista Bhagavad Gita: “Ahora me he convertido en la Muerte, el destructor de mundos”.
En algo seguro tuvo absoluta razón: el mundo corre con exceso de velocidad.