Hacia una inteligencia artificial más regulada y confiable

El actual desarrollo de aplicaciones en inteligencia artificial (IA) nos ubica en un punto de inflexión, ya que se trata de aplicaciones cada vez más autónomas que podrían tomar decisiones críticas sin una intervención humana. Concientizar sobre el poder de la IA y la necesidad de regular sus diversos usos, es uno de los grandes desafíos que atraviesan nuestras sociedades. En este contexto, investigadores del ICC trabajan en diferentes proyectos para promover los aspectos éticos y regulatorios de la IA.

Los recientes avances en computación en general, y muy en particular, en inteligencia artificial, nos ubican en el umbral de un nuevo punto de inflexión en la historia de la humanidad. No sería descabellado pensar que muy pronto las personas podrían confiar en la gestión del medio ambiente, economía, seguridad, infraestructura, producción de alimentos, atención médica y, en gran medida, actividades profesionales, laborales y personales, a sistemas informáticos artificialmente inteligentes.

En este aspecto, investigadores del ICC trabajan arduamente en el desarrollo de proyectos que buscan lograr una regulación de los sistemas de IA y generar recomendaciones para un uso más confiable de estos sistemas. “Nuestros proyectos están orientados a discutir y generar conciencia de que el uso de la IA requiere ciertas regulaciones, tomar conciencia de que hay ciertos riesgos de usarla indebidamente y de que hay que fijarle ciertos límites. Al mismo tiempo, las cuestiones éticas de la IA se traducen en cómo medir que un sistema se comporte bien o no, que esté bien entrenado, que sus datos no estén sesgados y que las respuestas que provee sean estadísticamente relevantes respecto al objetivo propuesto”, señala Ricardo Rodriguez, Investigador del ICC y Doctor en Ciencias de la Computación.

Rodriguez aclara que desarrolla estas iniciativas en conjunto con Vanina Martínez, investigadora del ICC y del IIIA-CSIC de la Universidad Autónoma de Barcelona. Y que el ejemplo más concreto de los riesgos de estos sistemas es el uso de la IA en armamentismo. 

En este sentido, los sistemas de armas autónomas letales (Lethal Autonomous Weapons Systems) son aquellos diseñadas para realizar ataques a humanos o territorios ocupados por humanos: pueden ser drones, tanques, aviones u otros dispositivos que, potenciados por inteligencia artificial, sean capaces de matar sin que haya intervención humana en este proceso.

Comenzamos a investigar el uso de la IA en armas de guerra cuando organizamos el congreso internacional IJCAI en Buenos Aires, en el año 2015. En aquella oportunidad se lanzó desde la comunidad internacional a la sociedad una carta abierta pidiendo la prohibición de los sistemas de armas autónomas y señalando sus peligros”, puntualiza el investigador del Instituto.

En paralelo, el comité de discusión de armas convencionales (Weapons Conventional Committe, WCC) de Naciones Unidas trabaja en un protocolo para el uso de IA en armamentismo aplicable a los Estados, que incluya los elementos básicos que describen un arma autónoma de este estilo. En este sentido, Rodriguez afirma que la inteligencia artificial es una tecnología de propósito general, por lo que es necesario otorgarle una especificidad concreta a los problemas de discusión actual. “Cuando hubo que discutir sobre armas de racimo o bombas antipersonales, la discusión era más concreta porque el artefacto de destrucción es más claro. Pero cuando hubo que discutir sobre armas químicas o biológicas la cuestión se complicó, porque a veces los límites de cuándo es un desarrollo para uso pacífico o bélico son poco claros. Y con la IA suele pasar exactamente lo mismo”.

Ricardo Rodriguez y Vanina Martínez forman parte de la organización “Stop Killer Robots” (campaña para detener a los robots asesinos), donde ayudan a orientar la posición técnica de las discusiones. A principios de este año participaron de una reunión en Costa Rica, que agrupó a todos los países latinoamericanos, para recomendar fuertemente a la WCC de Naciones Unidas a que avance en la discusión sobre las regulaciones de IA en usos militares. Al mismo tiempo, Rodriguez y Martínez participan de todas las discusiones sobre el uso confiable en IA, aspectos éticos y cómo generar estándares y regulaciones a la IA.

Por otra parte, los investigadores del ICC participaron en la publicación de “Aportes al debate del uso de IA para aplicaciones armamentistas” y en el libro “Inteligencia artificial y sistemas de armas autónomas: Disrupción de poder y nuevos desafíos en un escenario internacional incierto” (CEPI-UBA). En estas publicaciones, ambos autores incluyen cuatro principios de la IA aplicada a los sistemas de armas autónomas: 1. Previsibilidad (anticipar los resultados o efectos del sistema); 2. Comprensión (interpretabilidad intrínseca del sistema y grado en que una persona puede comprender el comportamiento del sistema o por qué el sistema hace lo que hace); 3. Justificación (los sistemas deben ser auditables tanto en cuanto a código como a datos y las decisiones de diseño deben ser explícitas) y 4. Explicación (capacidad del sistema de IA de poder ofrecer/comunicar a su usuario explicaciones para su razonamiento o accionar en términos adecuados, de manera que el usuario pueda entenderlas).

En cuanto al escenario local, Rodriguez aclara que en numerosas oportunidades los investigadores del ICC especializados en IA son consultados por los legisladores argentinos para participar en los debates del Congreso Nacional sobre uso y regulación de la inteligencia artificial. “Argentina está intentando hacer un esfuerzo, aunque las acciones están desarticuladas entre sí. Acaba de salir en el Boletín Oficial una declaración favorable respecto al documento de la UNESCO sobre recomendaciones para una IA fiable, dándole un estatus nacional, documento que fue votado en la Asamblea Ordinaria en 2021. A principios de 2022 el Gobierno Argentino firmó la Declaración de Toronto, mediante la cual más de 50 Estados acordaron declarar ciertas obligaciones para no violentar el uso de la IA en contra de los derechos individuales. Además todas estas iniciativas requieren una nueva Ley de Protección de Datos Personales, ley que nuestro país está intentado reformar desde hace tiempo para adaptarla a las transformaciones actuales”, describe el investigador.

También se destaca el capítulo generado en el X Encuentro Interacadémico 2021, en el marco de la Academia Nacional de Ciencias Exactas, Físicas y Naturales, “Desmitificando la Inteligencia Artificial” del libro “Inteligencia artificial: una mirada multidisciplinaria”. Autores: Laura Ación, Laura Alonso Alemany, Enzo Ferrante, Eric Lützow Holm, Vanina Martínez, Diego H. Milone, Ricardo Rodriguez, Guillermo Simari y Sebastián Uchitel. Y el reciente documental de TEC y Canal Encuentro, «Inteligencia Artificial: Nada de lo humano nos es ajeno«, donde participan investigadores del ICC.

Por último, Rodriguez comenta que se necesita conformar una masa crítica de investigadores y expertos locales en temas de ética, regulación y confiabilidad de los sistemas de IA, porque ciertamente hay muy pocos investigadores locales y regionales que se dedican a estos temas. “Nosotros dictamos materias, damos charlas y realizamos diversas publicaciones. Ojalá cada vez más gente se involucre en estos proyectos y discusiones, frente a los rápidos desarrollos de las herramientas de inteligencia artificial y el impacto que se está observando en la automatización de la toma de decisiones”, concluye.

Premio al mejor paper en lógicas modales

Más allá de los habituales problemas en inteligencia artificial, Ricardo Rodriguez también trabaja en problemas teóricos de lógica y computabilidad. Tal es así que el año pasado recibió el premio al mejor paper en la conferencia IMPU 2022 celebrada en Milán, por su trabajo “Rotations of Gödel Algebras with Modal Operators”, junto a los autores Tommaso Flaminio, Lluis Godo y Paula Menchón. El artículo propone el desarrollo teórico de un modelo de lógicas modales multivariadas, que resultarían de valor por su potencial aplicación como modelos de razonamiento de las redes neuronales.

Las redes neuronales suelen funcionar muy bien, pero un problema que presentan es que no hay modelos de razonamiento para modelarlas, hay muchas heurísticas que permiten que funcionen bien, pero a la hora de explicar cómo y por qué funcionan no son tan claras, ya que cuando las redes neuronales fallan a veces no se sabe por qué. Uno podría pensar que estos modelos lógicos basados en números podrían ofrecer una herramienta interesante para razonar y modelar la retroalimentación interna de las redes neuronales. Y el premio que nos dieron es de un modelo que efectivamente podría funcionar muy bien con ese propósito. Se trata de una teoría formalizada que tiene trascendencia desde el punto de vista práctico, entendiendo que podría resolver este complejo problema de razonamiento”, argumenta el investigador del ICC. 

2023-08-23T12:02:34-03:00 21/junio/2023|Noticias|
Go to Top