La Unión Europea presentó un marco regulatorio para la IA, ¿servirá de modelo para Argentina?
La norma busca abordar los riesgos potenciales de la inteligencia artificial sin dejar de fomentar la innovación. Especialistas en la materia consideraron fundamental crear un conjunto de normas que permita reglas claras para su uso y desarrollo. Tres proyectos descansan en el Congreso.
La Ley de Inteligencia Artificial Europea busca abordar los riesgos potenciales de esta tecnología y fomentar la innovación en este campo. Foto: Freepik
En un mundo en constante transformación, la inteligencia artificial (IA) se erige como una fuerza disruptiva, con el potencial de revolucionar diversos aspectos de la vida humana. Sin embargo, este avance tecnológico también trae consigo una serie de desafíos y oportunidades que requieren una atención urgente en materia legislativa para que exista un conjunto de normas que proteja de cualquier peligro que suponga para ciudadanos y ciudadanas. Mientras algunos países avanzan en este sentido, en Argentina solo hay proyectos que por ahora están dentro del Congreso.
Un referente para mirar es la Unión Europea, que trabaja en una Ley de Inteligencia Artificial que entrará en vigor durante este mes de mayo y establecerá un marco regulatorio para las aplicaciones de IA en la región. Esta norma busca abordar los riesgos potenciales de la IA, como los sesgos algorítmicos, la falta de transparencia y el uso indebido, al tiempo que fomenta la innovación en este campo.
La Unión Europea trabaja en una Ley de Inteligencia Artificial que entrará en vigor este mes de mayo de 2024.
Regulación de la IA, entre lo complejo y lo urgente
Si bien la regulación de la IA es un tema complejo y lleno de matices, no se debe dejar de lado que la falta de un marco regulatorio obstaculiza su desarrollo responsable. “La rapidez con la que avanza la tecnología supera el ritmo de adaptación de las leyes, lo que crea un vacío que debe ser abordado con urgencia”, sostuvo María José Laciar, abogada egresada de la UNCUYO y especialista a cargo del equipo de proyectos en Legaltech Seed. Dijo que la rápida evolución de la IA exige una respuesta coordinada a nivel internacional, pero que aún no se comprende completamente el alcance que tendrá la regulación de la Unión Europea ni cuáles los países que adoptarán la medida.
En este sentido, Laciar explicó que la Unión Europea se presenta como un referente en la regulación de la IA. Su legislación, inspirada en la norteamericana, establece una clasificación de las aplicaciones de IA según su nivel de riesgo, prohíbe aquellas de alto riesgo y establece requisitos de transparencia para las de riesgo medio.
Florencia Azategui Zabala, abogada especialista en IA y Derecho (Ialab-UBA), coincidió en que es absolutamente necesario trabajar en una legislación que proteja los derechos de la ciudadanía y limite los potenciales riesgos en un futuro. “Es necesario establecer un marco regulatorio sólido que fomente la innovación responsable, proteja los derechos humanos y mitigue los riesgos potenciales de la IA. Este marco debe ser flexible y adaptable a los constantes cambios tecnológicos, buscando un equilibrio entre la innovación y la protección”.
La IA se encuentra, entonces, en una encrucijada. Su desarrollo responsable y ético tiene el potencial de mejorar la calidad de vida de las personas y resolver problemas globales. Sin embargo, la falta de regulación y la ausencia de un marco ético claro podrían generar riesgos y desafíos imposibles de ignorar.
En cuanto a los riesgos que puede afrontar la ciudadanía, María José Laciar enumeró los más significativos: “La falta de regulación de la IA puede generar diversos riesgos, como la suplantación de identidad, la discriminación algorítmica, la manipulación de la opinión pública y el uso indebido de la tecnología para fines maliciosos. Es necesario identificar y mitigar estos riesgos mediante un marco regulatorio adecuado”.
La IA genera riesgos, como la suplantación de identidad, la manipulación de la opinión pública o el uso indebido de la tecnología para fines maliciosos.
La regulación de la IA en Argentina y América Latina
La regulación de la IA en América Latina enfrenta desafíos específicos debido a la diversidad de los sistemas jurídicos y a la falta de experiencia en la materia. A raíz de esta situación, Laciar entiende que se necesitan leyes que rijan el desarrollo y uso de la inteligencia artificial con el foco puesto en las características particulares de cada región.
Puntualmente, en el país todavía se está a la espera, ya que, hasta el momento, no se ha avanzado en ninguna ley que contenga una regulación al respecto. “Argentina se encuentra en proceso de analizar proyectos de ley sobre IA, mientras que otros países, como Brasil, buscan desarrollar planes regionales que abarquen a todo el Mercosur. Es fundamental establecer un marco regulatorio claro y efectivo que proteja a los ciudadanos y promueva el desarrollo responsable de la IA”, advirtió.
En este sentido, para Zabala es difícil pensar a largo plazo en Argentina debido a los desafíos actuales: “Se debe debatir y regular cómo los desafíos actuales afectan al país. Para ello, es importante pensar en el largo plazo. No obstante, mi mirada es un poco más abarcativa, ya que considero que debemos discutir y plantear la necesidad de una regulación regional de la inteligencia artificial”.
En el país, diversas propuestas legislativas relacionadas con la inteligencia artificial han sido presentadas en el Congreso nacional, aunque ninguna ha progresado hasta el momento. Entre ellas, se encuentran iniciativas como la del diputado Facundo Manes (UCR) y la diputada Jimena Latorre, también de la UCR y actualmente ministra de Energía y Ambiente de Mendoza, centrada en "el funcionamiento ético de los sistemas"; la propuesta de la exdiputada del PRO y actual secretaria de Bienestar Integral de la Ciudad de Buenos Aires, Victoria Morales Gorleri, que aborda el desarrollo y uso de la IA; y otra impulsada por la exdiputada del Frente de Todos Anahí Costa, con el fin de promover las nuevas tecnologías asegurando su utilización ética y responsable.
En la región, la situación es similar, con proyectos de ley presentados en países como Brasil, Chile, Colombia, Costa Rica y Perú, entre otros. Recientemente, Brasil se destacó en este ámbito, ya que el presidente Lula Da Silva solicitó al Consejo Nacional de Ciencia y Tecnología (CCT) la elaboración de un Plan de Inteligencia Artificial. De hecho, expresó su deseo de presentarlo ante la comunidad internacional durante la 79.ª Sesión de la Asamblea General de las Naciones Unidas en septiembre.
En Argentina existen tres iniciativas legales vinculadas a la inteligencia artificial en el Congreso nacional
La IA y su impacto en la economía, la sociedad y los derechos humanos
La revolución tecnológica impulsada por la IA tiene un impacto profundo en la economía, la sociedad y los derechos humanos. Si bien aún no se comprende del todo el alcance de este impacto, para ambas abogadas, es fundamental considerar las consecuencias potenciales y tomar medidas para adaptarnos a este nuevo paradigma.
“La inteligencia artificial genera oportunidades para el crecimiento económico y la creación de nuevos empleos, pero también presenta riesgos como la automatización de tareas y la pérdida de puestos de trabajo. Es necesario desarrollar políticas que fomenten la capacitación y la reconversión laboral para que las personas puedan adaptarse a las nuevas demandas del mercado laboral”, remarcó Laciar.
Por su parte, Zabala afirmó: “La IA debe desarrollarse y utilizarse de manera que respete los derechos humanos fundamentales, como la privacidad, la libertad de expresión, la igualdad y la no discriminación. Es necesario establecer principios éticos claros que guíen el desarrollo y la aplicación de la IA”.
Por eso, Zabala consideró necesario el esfuerzo conjunto por parte de gobiernos, organizaciones internacionales, empresas, academia y sociedad civil para establecer un marco regulatorio sólido y flexible que fomente la innovación responsable, proteja los derechos humanos y mitigue los riesgos potenciales de la IA. "Solo así podremos aprovechar al máximo las oportunidades que esta tecnología nos ofrece y construir un futuro mejor para todos”, concluyó.
La ley de la Unión Europea clasificará las aplicaciones de inteligencia artificial en diferentes categorías según su nivel de riesgo
La Unión Europea regula la IA con una nueva ley
La ley clasificará las aplicaciones de inteligencia artificial en diferentes categorías según su nivel de riesgo. Las aplicaciones de alto riesgo, como aquellas que utilizan el reconocimiento facial en espacios públicos, estarán prohibidas. Las aplicaciones de riesgo medio, como los chatbots, estarán sujetas a requisitos estrictos de transparencia y evaluación de riesgos. Las aplicaciones de bajo riesgo, como los filtros de spam, no requerirán una regulación específica. La ley también fomentará el desarrollo de IA responsable y ética. Se espera que las empresas que desarrollen y utilicen aplicaciones de IA implementen medidas para garantizar la transparencia y el respeto a los derechos humanos.
La Ley de Inteligencia Artificial Europea es un paso importante para abordar los desafíos y oportunidades de esta tecnología. Su implementación efectiva será crucial para garantizar que la IA se desarrolle y utilice de manera responsable en beneficio de la sociedad.
inteligencia artificial, ia, derecho, tecnología, innovación,
"¿Qué pensás que puedo hacer para ayudarte?", una pregunta clave para acercarse a adolescentes en riesgo
La doctora en psicología Diana Altavilla, que trabaja desde 2001 en la problemática del suicidio, ...
09 DE DICIEMBRE DE 2024
Las mujeres que se destacan en su trabajo reciben mayor cantidad de comentarios negativos
En las evaluaciones de desempeño laboral, quienes más rinden en el trabajo reciben peores ...
06 DE DICIEMBRE DE 2024
Escuela Sociodeportiva de la UNCUYO: cuando el deporte sirve de puente hacia la inclusión social
Con un enfoque recreativo y social, este lugar se ha convertido en un refugio para niños, niñas y ...
05 DE DICIEMBRE DE 2024