Investigadoras advierten que la automatización del lenguaje informático refuerza estereotipos

Las tecnologías reproducen los prejuicios sociales relacionados con el género, la discriminación a personas con discapacidad o en situación de pobreza. Para evitar esto, especialistas remarcaron la necesidad de aumentar la inversión en áreas de lingüística y computación.

Investigadoras advierten que la automatización del lenguaje informático refuerza estereotipos

Imagen: www.elpais.com

Sociedad

Tecnología y sociedad

Unidiversidad

Unidiversidad

Publicado el 19 DE ABRIL DE 2022

Investigadoras argentinas especializadas en Lingüística y Computación advirtieron que las tecnologías "tienden a unificar todo en un lenguaje estándar" y refuerzan, muchas veces, estereotipos o prejuicios vinculados al género, al capacitismo –discriminación a personas con discapacidad– y a la aporofobia –aversión a personas en situación de pobreza–. Estos estereotipos, sostuvo Laura Alonso Alemany, condicionan a las personas a la hora de comunicarse.

Las tecnologías y todas las automatizaciones amplifican los estereotipos, exponencialmente y de formas sutiles. “Si no tenemos un ojo entrenado, no lo vamos a ver, porque reproducen algo que nos resulta natural", dijo a Télam Alonso Alemany, doctora en Lingüística por la Universidad de Barcelona y profesora de Computación en la Universidad Nacional de Córdoba (UNC).

La desigualdad de género es una de las más evidentes. Por ejemplo –ejemplificó la especialista–, cuando se traduce del inglés, una lengua sin géneros gramaticales, una palabra como nurse, "sistemáticamente se traduce como 'enfermera'"; y doctor, "como 'doctor' en masculino". "Claramente, nos está condicionando a pensar que lo normal es que las enfermeras sean mujeres y los doctores sean hombres".

“Cuando estos sistemas encuentran una imagen de una persona en una cocina, van a tender a decir que esa persona es una mujer, incluso si muy claramente esa persona es un hombre”, manifestó la investigadora en el portal Argentina Investiga.


Alonso Alemany. Foto: www.eco.unc.edu.ar

Los prejuicios de las personas se trasladan y reproducen en el mundo digital. Otro ejemplo se encuentra en la descripción de las imágenes, herramienta valiosa para las personas ciegas o con visión reducida y para su recuperación, ya que se rastrean a partir del texto con ellas relacionadas. Si la descripción tiene sesgos o prejuicios, los datos que el sistema relaciona también los van a reproducir.

“Si encuentran una imagen de alguien en una biblioteca, el sistema tenderá a decir que es una persona de clase acomodada y no de clase pobre. Si no curamos esos datos, van a amplificar prejuicios y sesgos que se encuentran en nuestra sociedad y van a perjudicar de una forma mucho más fuerte a los colectivos que se discriminan”.

Otro de los desafíos que presenta la automatización del lenguaje es "el desbalance de poder entre lenguas", advirtió Luciana Benotti, doctora en Ciencias de la Computación con especialidad en Lingüística Computacional por la Universidad de Nancy. En la actualidad, las lenguas que tienen mayor desarrollo tecnológico son el inglés y el chino. Otros lenguajes, como el español, no tienen el mismo crecimiento y no es proporcional a su cantidad de hablantes. Tampoco se consideran las variaciones regionales de un idioma.

Estas tecnologías "tienden a unificar todo en un lenguaje estándar y a considerar incorrectas otras variaciones", lo que tiene un correlato con la desaparición de lenguas minoritarias, añadió Benotti.

Además, necesitan muchos datos digitalizados en esas distintas lenguas para poder funcionar. Entonces, las que tienen poco registro, como las nativas de América Latina, “no tienen soporte en este tipo de tecnologías”, explicó Benotti.


Luciana Benotti. Foto: www.unsam.edu.ar

Con respecto al panorama en Argentina de los estudios sobre procesamiento del lenguaje natural, conocido como lingüística computacional, las investigadoras resaltaron la necesidad de una mayor financiación, inversión y formación. "En el país, no hay incentivos para desarrollar esta área. Las becas de doctorado que paga Conicet para personas formadas en computación son imposibles de competir con las oportunidades que tienen estos estudiantes en el exterior o en la industria", argumentó Benotti. La menor participación de investigadoras en esta área, como también la escasa presencia de personas latinoamericanas, tiene su correlato en la falta de perspectiva de género e interseccionalidad, es decir, en la atención sobre la subordinación de lo femenino y lo feminizado, como también en todas las otras identidades sobre las que se fundan otras discriminaciones, como la clase social, el color de piel, etc.

Fuente: Télam

tecnología, lenguaje computacional, estereotipos, ,