Los avances en inteligencia artificial generan tantas promesas como incertidumbre respecto de sus posibles consecuencias. Durante un seminario se debatió sobre su aplicación en tecnologías que pueden determinar la vida o muerte de personas. ¿Hasta dónde pueden decidir los sistemas por sí mismos y quiénes responden por su accionar? ¿Es posible incluir valores morales y éticos en las máquinas?

Las nuevas tecnologías que incluyen algún tipo de inteligencia artificial pueden convertirse en excelentes asistentes de las tareas humanas o en armas letales difíciles de controlar. ¿Hasta dónde pueden decidir los sistemas por sí mismos? ¿Es posible incluir valores morales y éticos en las máquinas? ¿Cómo definir qué normas incluir en la programación de un algoritmo? ¿Quién asume la responsabilidad por el accionar de máquinas autónomas?

Algunas de esas preguntas acompañan el sendero de los desarrollos en inteligencia artificial desde sus inicios y también guiaron el debate durante el seminario “Inteligencia Artificial y Ética: el desafío de las armas autónomas letales” organizado por la Red de Seguridad Humana para América Latina y el Caribe y el Centro de Estudios en Política Internacional de la Facultad de Ciencias Sociales de la Universidad de Buenos Aires. El encuentro reunió a especialistas de diversas disciplinas para reflexionar en torno a esta problemática, desde la computación y el área de defensa hasta el derecho internacional y la filosofía.

Existen dos grandes ramas de investigación y desarrollo en inteligencia artificial: la que se fundamenta en machine learning, o aprendizaje automático, y la basada en lógica. El avance de la primera se sostiene en el crecimiento de la capacidad computacional y en que los algoritmos se alimentan de grandes cantidades de datos que permiten detectar patrones basados en estadística. En la segunda, en cambio, los algoritmos se basan en lo que los informáticos llaman símbolos, que buscan conceptualizar el conocimiento humano.

Por ejemplo, un sistema de aprendizaje automático alimentado con fotos de animales es “entrenado” para diferenciar los diferentes tipos de animales que existen: si se les muestra una foto pueden identificar que se trata de un gato porque reconoce patrones que ya vio en un montón de ellos. Lo que no puede hacer este sistema es explicar qué es un gato. Eso es lo que trata de resolver la otra rama de la inteligencia artificial, basada en lógica.

La resistencia al uso de armas autónomas crece con campañas y movilizaciones en diversas partes del mundo.

“Ninguna de las dos áreas por sí sola logrará nada inteligente ni realmente usable. Podríamos tratar de aprender qué tipo de ética o valores se usan en una sociedad en particular, para pasarlos a un modelo de símbolos que se puedan interpretar en la máquina”, señala Vanina Martínez, doctora en ciencias de la Computación de la Universidad de Buenos Aires. Según Martínez, las líneas de investigación más innovadoras están trabajando en lo que se conoce como sistemas híbridos, que buscan una combinación de ambas aproximaciones.

Sin embargo, “llegar a un consenso sobre qué es ético es de por sí complejo y más aún tratar de reproducirlo en un lenguaje formal que pueda ser comprendido por el sistema”, reconoce Martínez y aclara que por eso, quienes trabajan en ética por diseño o ética computacional están buscando las maneras más accesibles de lograrlo. “Tal vez una de ellas sea incorporar normas, que si bien también son susceptibles de interpretación, resulta algo más cercano”, puntualiza.

Su colega Guillermo Simari, investigador en inteligencia artificial en la Universidad Nacional del Sur, reflexionó: “Uno de los problemas que tiene la filosofía es que las teorías no se ejecutan. Hay teorías pero falta el experimento para probarlas. Entonces, tener una teoría ética y aplicarla en algunos sistemas podría ser bueno ya que nos permitiría ver adónde no funciona. Quienes trabajamos en informática decimos que uno no conoce el problema hasta que lo programa y lo arregla, y lo vuelve a arreglar infinitamente, porque siempre aparece algo que no se tuvo en cuenta”.

“No existe un sistema informático que no se pueda hackear”, advirtió Simari durante el seminario.

Asistentes para la guerra

Mientras la investigación avanza, también se multiplican las aplicaciones que utilizan inteligencia artificial sin que los usuarios incluso lo perciban. “Google utiliza muchos componentes de este tipo y en muchos casos no se podría seguir trabajando sin ellos. En el futuro, habrá sistemas de apoyo para todas las profesiones. En el caso de la medicina, por ejemplo, se va a volver obligatorio usarlas, es como si un médico actual no quisiera usar rayos X”, sugiere Simari, doctor en Ciencias de la Computación por la Washington University de Saint Louis, Estados Unidos.

El gran dilema surge cuando se agrega inteligencia autónoma en aplicaciones que pueden determinar la vida o muerte de personas. “Es inevitable que estas tecnología proliferen pero sí podemos pensar en las consecuencias que pueda generar”, dice Juan Battaleme, director de la Maestría en Defensa Nacional de la Universidad del CEMA.

“El foco que tenemos que tomar como investigadores, y también como sociedad, es construir este tipo de herramientas pensando en las consecuencias que pueden tener, no es cuestión de prohibir sino de poder controlar lo que estamos creando”, coincidió Martínez durante el encuentro, que se desarrolló en el marco de la Campaña para detener los robots asesinos, que desde el año 2012 busca lograr el consenso para prohibir las armas autónomas y mantener el control humano sobre el uso de la fuerza, iniciativa en la que han participado personalidades como Stephen Hawking, Elon Musk, Steve Wozniak y Noam Chomsky.

“La posición argentina es la de considerar que el control humano es necesario en todo el ciclo del arma, no solo en el uso sino desde el diseño mismo. El operador humano debe tener un conocimiento preciso, no solo de las posibilidades del arma sino también de sus etapas de diseño y desarrollo, debe ser consciente de sus posibles consecuencias y qué responsabilidad le toca a cada uno de los que intervienen en el desarrollo”, afirmó Ángel Dalmazzo, representante de la Dirección de Seguridad Internacional, Asuntos Nucleares y Espaciales del Ministerio de Relaciones Exteriores. El sistema también debería ser auditable y permitir un control humano a posteriori: “Hay que evitar que el sistema sea una caja negra; los sistemas deberían tener la suficiente predictibilidad, explicabilidad y confiabilidad”, agrega.

El problema es que “no existe un sistema informático que no se pueda hackear”, advirtió Simari y sostuvo que entre las principales limitaciones de las máquinas de aprendizaje automático se encuentra que no pueden explicar las decisiones que toman y que son entrenadas a partir de una determinada cantidad de datos según los cuales se comportarán en ese contexto de diseño. Por eso, “a medida que los sistemas se complejizan se vuelven menos confiables, porque el contexto en el cual desarrollan su actividad hace que los sistemas cometan errores, ya que fueron entrenados en uno diferente”.

Battaleme considera que “hay una decisión humana en dejar que las máquinas maten, porque muchos países tienen problemas al momento de desplegar seres humanos en el escenario de batalla. Nos preocupa que la máquina mate pero no hace otra cosa más que lo que hacemos como seres humanos”, dice. “Lo que no resolvimos es la relación del ser humano con la violencia, nos programan para ir a la guerra pero también para entender las dinámicas de la paz. Lo difícil de entender es que el campo de batalla tiene efectos sobre los seres humanos. ¿Cuán responsables somos en relación a lo que desplegamos y cómo vamos a experimentar la guerra, si tenemos máquinas que pelean por nosotros?”, se pregunta.

(Agencia TSS – Unsam)

¿Querés recibir las novedades semanales de Socompa?