Justicia algorítmica: urge regular la IA para la soberanía de los Estados y la autonomía de las personas
Los Estados deberían poder exigir a las empresas que expliciten cómo usan los datos de las personas y estas, a su vez, deberían poder exigir la fuente de la información que reciben. Florencia Alderisi, abogada estudiosa de la temática, advierte la necesidad de regular la IA en clave feminista y latinoamericana.
Regular el algoritmo es, en realidad, regular a las personas que lo diseñan. Imagen: Moor Studio/Getty Images
La inteligencia artificial (IA) está transformando nuestra sociedad a un ritmo vertiginoso. Desde la educación y el trabajo, hasta la salud y el Estado, las IA están presentes en casi todos los aspectos de nuestras vidas. Esta revolución tecnológica plantea importantes desafíos, especialmente en relación con la justicia, la equidad y la soberanía digital. Porque, hasta ahora, el desarrollo de las IA está bajo el ala de empresas tecnológicas que, como tales, tienen fines comerciales, no buscan el bien común. En este devenir de las cosas, las personas se transforman en usuarias que no saben bien qué datos entregan a cambio, la información precisa se confunde con la posverdad, las fuentes se diluyen y los contenidos quedan atravesados por los sesgos de quienes entrenan los algoritmos.
Hasta ahora, hay un gran vacío en cuanto a la regulación sobre las IA, salvo excepciones como sucede en la Unión Europea. Pero para garantizar la justicia algorítmica, la legislación debería adaptarse a cada contexto. Florencia Alderisi, abogada investigadora de la temática, reflexionó con Unidiversidad sobre la necesidad de regular la IA en clave feminista y latinoamericana, para que los sesgos de género no formen parte del núcleo del sistema y los programas achiquen —y no agranden— la brecha de la desigualdad. Este fue el eje de su participación en el Encuentro latinoamericano de saberes en la Universidad de Atacama.
“La justicia algorítmica se centra en usar estas nuevas tecnologías en forma ética y responsable, desarrollando estrategias integrales tanto por los países como por la región para reducir brechas y desigualdades sociales, económicas y digitales en esta nueva era tecnológica”, explicó la abogada.
Uno de los principales problemas que plantea la IA es la presencia de sesgos culturales en los algoritmos. Estos sesgos —que son el reflejo de las desigualdades existentes en la sociedad—y pueden tener consecuencias negativas para las personas, especialmente para grupos vulnerabilizados como son mujeres y LGBTIQ+, poblaciones indígenas y las comunidades afrodescendientes.
No se trata solo de controlar los algoritmos, sino también de comprender cómo se construyen, quiénes los diseñan y qué valores están detrás de su desarrollo. Regular el algoritmo tiene que ver, en realidad, con regular a las personas que diseñan este sistema que opera como una “red neuronal”, cuyo núcleo está entrenado con un programador. Y el lenguaje, la herramienta principal, está cargado de subjetividad.
En las IA operan sesgos de género porque los transmiten las personas que la diseñan. Imagen: Dragon Claws/Getty Images
Los algoritmos no son neutrales, están diseñados por personas, y esas personas tienen sus propios prejuicios, estereotipos, creencias y experiencias que les trasladan a los algoritmos a través del lenguaje. Algunos ejemplos: cuando a alguna IA como ChatGPT se le pide la imagen de una pareja, el primer resultado es una pareja heterosexual; al solicitar una persona mapuche, arroja alguien con rasgos mongoles —no andinos—, y al armar la lista de cinco intelectuales más influyentes del siglo XX, muestra cinco varones.
El problema se agranda porque opera el sesgo de confirmación. Cada vez que la IA responde reproduciendo algún sesgo y no es rectificada o corregida, refuerza —confirma— la “idea”. Porque por momentos parece que hablamos con una "inteligencia" y se pierde el rastro de que es, en realidad, un desarrollo técnico.
Se vuelve central aquí la regulación sobre las fuentes, es decir, poder exigirles a las IA que digan de dónde sacaron la información. Porque son medios, pero no fines en sí mismo. Es decir, como sociedad es importante no perder el rastro de quién investigó algo y cómo llegó a ese resultado, cuál fue el análisis cualitativo y cuantitativo detrás de eso, cómo se solventa una idea. No alcanza con que una IA lo comunique porque, de ese modo, no es chequeable y, manifiesta la especialista, potencia el problema de la posverdad: perdemos la noción de qué es cierto y qué no, cómo se llega a una conclusión, cómo se construye el método científico.
Regular la inteligencia artificial para la soberanía digital
Alderisi destacó la regulación sobre este desarrollo de la Unión Europea, que ha implementado un sistema de clasificación de riesgos para los programas de IA. Sobre esta base aborda los riesgos creados por las aplicaciones de IA, prohíbe las de riesgo inaceptable, determina qué aplicaciones de IA son de alto riesgo y establece requisitos claros sobre ellas.
Entre las de alto riesgo se encuentran aquellas utilizadas en la formación educativa, en infraestructura crítica —como el transporte— que pone en peligro la vida de las personas, en empleo y gestión de personal, en servicios esenciales, en gestión de migración o en administración de justicia y procesos democráticos. Es un buen ejemplo, pero es necesario adaptar la regulación a la realidad, los valores, los desafíos y la situación geopolítica de los países latinoamericanos.
En clave regional, la palabra soberanía —una vez más— cobra particular relevancia a la hora de pensar en la necesidad de regular las inteligencias artificiales. Por un lado, es indispensable comprender en qué consisten estas grandes empresas tecnológicas para generar autonomía entre usuarias y usuarios. Estas empresas de IA pueden recaudar y vender gran cantidad de datos, es decir, tienen un gran poder comercial con la información de las personas. Hasta ahora, en lugares como Argentina, no hay regulación alguna, a punto tal de que la IA de Meta se instaló por defecto, sin pedido de consentimiento, en WhatsApp.
En este punto entran en puja con los Estados, que deberían poder exigirles que expliciten y dejen en claro cómo disponen de esos bancos de datos. Pero los Estados no tienen fuerza por sí solos para exigirles a las empresas que publiquen esa información y, por eso, emerge la posibilidad de conformar bloques regionales para que las estrategias tengan resultados.
Por otro lado, la regulación tiene que enfocarse en la soberanía en cuanto a infraestructura tecnológica porque, hasta el momento, todo es propiedad de las empresas. En la actualidad, los tres poderes del Estado —Ejecutivo, Legislativo y Judicial— están empezando a usar diferentes tipos de IA, pero acudiendo a infraestructuras que no son propias y cuestan millones de dólares por mes. En tanto no se invierta en tecnología de hardware y almacenamiento, los Estados van a tener su administración atada a empresas privadas, al monto que sea que pidan a cambio de sus productos y servicios.
inteligencia artificial, ia, sesgos, justicia,
Ley de etiquetado frontal: más de 150 organizaciones rechazan su derogación
Entrevista a Leila Guarnieri, nutricionista e investigadora de FIC Argentina.
10 DE DICIEMBRE DE 2024
Resistencia antimicrobiana: alerta global por el mal uso de antibióticos y antivirales
El abuso de estos medicamentos genera bacterias más resistentes y tratamientos menos efectivos. ...
10 DE DICIEMBRE DE 2024
"¿Qué pensás que puedo hacer para ayudarte?", una pregunta clave para acercarse a adolescentes en riesgo
La doctora en psicología Diana Altavilla, que trabaja desde 2001 en la problemática del suicidio, ...
09 DE DICIEMBRE DE 2024