El defensor del Pueblo de la provincia de Santa Fe a cargo Gabriel Savino expuso este martes en el Grupo de Trabajo Nuevas Tecnologías y Derechos Humanos que realizó en el marco de la Asamblea Congreso de la Federación Iberoamericana del Ombudsperson (FIO) que se desarrolla en Barranquilla, Colombia. Allí, desarrolló algunas de las posibilidades, pero también los desafíos que implican las nuevas tecnologías y la Inteligencia Artificial para los Derechos Humanos y propuso crear la figura de un Defensor Especializado en IA.
“Las innovaciones tecnológicas se han convertido en un pilar fundamental para mantener la conectividad y también la eficiencia en el mundo. Esto se está dando no sólo de forma acelerada, sino de manera disruptiva. No sólo tenemos que hablar de un pacto social al estilo rousseauniano, sino que tenemos que empezar a entender que este nuevo pacto no solamente es social, sino un pacto tecnológico. Y las herramientas que hoy tenemos a medida que pensamos en la comunicación digital, en la inteligencia artificial, en la automatización han demostrado ser vitales para la adaptación no solamente de este entorno, sino el único sistema que tenemos que entender lo cambiante del mundo”, explicó Savino.
El defensor santafesino advirtió que existen cuestiones generacionales que atentan contra una comprensión completa del fenómeno y pidió “hacer todos los esfuerzos necesarios para poder estar a la altura del desafío”. “No tenemos que ser ingenuos en creer que hoy estamos abordando el tema a tiempo, pero al menos sabemos que estamos abordándolo fuera de tiempo. No sólo en referencia a la difusión digital y el rol de nuestras instituciones, sino porque estamos poniendo el juego nuestros futuros y el juego de nuestras infancias adolescencias y juventudes”, advirtió Savino.
En ese sentido, Savino exhortó: “Como institución protectora de derechos nosotros deberíamos preguntarnos qué está pasando con la ética en la programación, los perfilamientos, la internet de las cosas, la internet profunda, el metaverso, la nueva sociedad de la información, la infoxicación de nuestros niños niñas adolescentes y jóvenes. Y nos tenemos que preguntar quién está controlando qué estamos haciendo con estas cuestiones. El ciberespacio, la inteligencia artificial es algo que no todos comprendemos y menos para los que no somos nativos digitales de nuevas tecnologías y nuevos derechos y nuestras instituciones”.
Respecto de lo que sucede en la provincia de Santa, el defensor del Pueblo señaló: “En la actualidad en muchos casos no encontramos, cuando actuamos institucionalmente, que no tenemos visible ningún responsable, sea físico institucional. Para interpretar, hoy no hay un Estado, no hay una empresa, no hay una persona, nadie parece responsable hoy. El otro en muchos casos es una plataforma digital, un chatbot, un algoritmo en la internet profunda, que no se nos muestra como real, pero que no hay posibilidad o no tenemos posibilidad de acceder físicamente ni por los canales institucionales que estamos acostumbrados”. En ese sentido, pidió que se realice una intervención de parte de todas las entidades protectoras de derechos de los 22 Estados que forman parte de la FIO para avanzar en una regulación y en un marco que permita proteger los derechos humanos en la actualidad.
En ese marco, y en base a un estudio preparado por el experto argentino Juan Belikow, propuso comenzar a analizar la figura de un Defensor Especializado en Inteligencia Artificial. Sucede que, en el caso concreto de la IA, el Grupo de Trabajo identificó diez tipos de riesgos para los derechos humanos. La lista la encabezan las amenazas para la privacidad y la protección de datos, ya que los sistemas dependen cada día más de datos personales para la capacitación y la toma de decisiones. “El mal uso de esos documentos puede conducir a importantes infracciones de privacidad y violaciones del derecho de las personas a controlar su información”, advierte el documento de trabajo. Otro riesgo es el de la discriminación y el sesgo que se producen cuando los algoritmos perpetúan inadvertidamente clasificaciones que generan resultados discriminatorios, lo cual da al traste con principios como la no discriminación y la igualdad de las personas ante la ley. Como a menudo la inteligencia artificial se percibe como una “caja negra”, asegurada con claves y secretos, surge un tercer riesgo: la falta de transparencia que afecta la cultura de la rendición de cuentas e impide a las personas impugnar decisiones que afectan sus condiciones y calidad de vida.
Tras insistir en el riesgo de que la IA desplace millones de empleos a cargo de personas y perturbe los mercados laborales, el Grupo de Trabajo invitó a los Defensores del Pueblo a desplegar esfuerzos para lograr que las nuevas tecnologías respeten los derechos de los trabajadores. “Los algoritmos de la IA empleados en las plataformas de redes sociales y los sistemas de moderación de contenidos pueden sofocar inadvertidamente la libertad de expresión mediante la excesiva eliminación de contenido y la censura”, coincidieron en decir los integrantes del Grupo de Trabajo. Además del riesgo siempre presente del hackeo, advirtieron que los derechos asociados al acceso y a la inclusión también pueden verse vulnerados porque la tecnología no siempre tiene en cuenta a las personas con discapacidad o a las comunidades marginadas, sobre todo cuando se refiere al acceso de servicios y oportunidades esenciales. Integrantes del Grupo de Trabajo de Nuevas Tecnologías destacaron los pasos dados en este frente por el Defensor del Pueblo de Colombia, Carlos Camargo Assis, con la creación de la Delegada para la Protección de Derechos en Ambientes Digitales y Libertad de Expresión.