Pararse sin miedo frente al algoritmo y reclamar más regulación

Cada búsqueda o publicación que hacemos en Internet y redes sociales deja una huella llamada “digital”. Una especialista nos explica las consecuencias de que nuestros datos circulen en la red. Posibles soluciones y recomendaciones a la hora de postear.

Pararse sin miedo frente al algoritmo y reclamar más regulación

Imagen ilustrativa creada por vectorjuice - www.freepik.es

Ciencia y tecnología

Redes sociales

Unidiversidad

Soledad Maturano

Publicado el 29 DE OCTUBRE DE 2021

Hoy, compartir una historia en Instagram, un estado en WhatsApp o algún meme en Facebook es prácticamente un hábito, al igual que las búsquedas que hacemos en Google o el cliqueo en varias páginas. Con cada uno de esos pasitos que damos en internet, vamos dejando una marca. Así, a lo largo de nuestra vida activa en la red, se construye una huella digital que, por más imperceptible que parezca, no se puede borrar.

Sin embargo, pocas veces nos preguntamos qué información nuestra queda dando vueltas en Internet o cuáles son las consecuencias de la circulación libre de nuestros datos. También son pocos los cuestionamientos que nos hacemos sobre cuál es el funcionamiento del algoritmo de redes sociales, como el de Facebook, que –según estudios recientes–, termina alentando discursos de odio.

El filósofo surcoreano Byung Chul Han ha realizado interesantes aportes sobre el “sujeto del rendimiento” como aquel que se autoexige y autoexplota, en una suerte de amo y esclavo al mismo tiempo en la era digital. A la vez, en uno de sus trabajos, introduce la noción de Homo digitalis. Este, explica Han, “mantiene su identidad privada, aun cuando se presente como parte del enjambre”, al mismo tiempo que “se manifiesta de manera anónima, pero por lo regular tiene un perfil y trabaja incesantemente para optimizarlo. En lugar de ser nadie, es un alguien penetrante, que se expone y solicita la atención”.

En este sentido, Ariadna Luján Martínez, cofundadora y codirectora de Legaltech Seed, graficó a Unidiversidad: “El 7 de marzo de 2021, a las 17, en un minuto, se postearon 578 millones de tuits, 65 millones de fotos en Instagram, se hicieron 5500 millones de búsquedas en Google. Todo esto en un minuto”.

Estos movimientos que hacemos en las redes sociales producen una gigantesca cantidad de datos que, como expresó la experta, “son el petróleo del siglo XXI”. Esto es interesante en tanto que nos ubica a internautas como los “productos” de ese mercado. “Todas las cosas que creemos que usamos de manera gratuita, en realidad, las estamos pagando con nuestra información”, aseguró Martínez.

Incluso destacó: “A partir de una foto que puedo compartir en Instagram o Facebook, no solamente estoy compartiendo ese momento, sino que se pueden extraer o deducir muchos otros comportamientos, muchos otros datos que no se ven en esa foto”.

 

Regulación

La experta explicó a Unidiversidad que los datos tienen distintas categorías, entre los que podemos encontrar “datos personales, sensibles, biométricos”, y que “dentro de los datos –que son valores crudos–, tenemos los metadatos, que son los datos que se obtienen de los datos”. Frente a esta maquinaria, pareciera urgente la necesidad de generar una cultura que proteja los datos “Así como yo me autodetermino en el derecho cuando se habla de la privacidad y la esfera de la intimidad, saber que todos nosotros tenemos una identidad digital y que la autodeterminamos”, propone Martínez.

Pero ¿cómo podemos promover este giro cultural? “No podemos regular el uso de las redes sociales” aseguró, pero sí la forma en que son procesados los datos. “Sí podemos regular los algoritmos, cómo se entrenan, y hacer una supervisión; formar una política de gobernanza de datos me parece superimportante”, afirmó.

Ahora bien, para motorizar un cambio cultural de este tamaño, es necesario que distintos sectores de la sociedad se involucren: “Los actores sociales, junto con el Estado, tienen que ser los que impulsen estas políticas para empezar a crear conciencia”, expresó.

Entonces, según Martínez , para pensar en una posible regulación, es necesario “tener en cuenta sí o sí al ámbito público y al ámbito privado, y hacer que la sociedad pueda participar de debates, de las propuestas de legislación”. Agregó que se debe tratar de una regulación flexible porque “la era 4.0 tiene una evolución muy rápida". "Nosotros no podemos demorarnos 5 años en largar una regulación, porque de acá a 5 años, las circunstancias cambiaron”, advirtió.

La entrevistada destacó la importancia de extender cadenas de difusión y visibilización sobre estos temas. Así se pueden prevenir ciertas prácticas violentas ya que, en la red, como comentó Ariadna, “puede haber ciberbullying, se puede tener contacto con personas desconocidas, ser víctima de grooming, de sexting o de suplantación de identidad, o acceder a las fake news.

Otro debate que despierta la regulación es sobre la libertad de expresión y su posible vulneración. La experta en nuevas tecnologías sostuvo que la regulación no debería “producir una limitación de derechos, una limitación en el crecimiento y desarrollo de la tecnología” y que una posible solución sería que la regulación “promueva la conciencia y le dé poder al ciudadano”.

Imagen ilustrativa publicada en Pixabay

Discursos de odio

Recientemente se publicó un estudio, dirigido por el investigador del Conicet Ezequiel Ipar, que da cuenta del funcionamiento del algoritmo de Facebook al momento de facilitar la circulación de discursos de odio. La empresa de Zuckerberg se resiste a introducir cambios porque ese mecanismo –aunque sea violento con distintos grupos sociales– genera enormes cantidades de interacciones y, por lo tanto, mercancía.

En este sentido, la entrevistada aseguró que para “un magnate así, con las dimensiones que tiene”, una iniciativa interesante es retirarle publicidad, como sucedió el año pasado. Destacó esta estrategia porque, en términos de ganancias, Facebook podría empezar a “realmente poner un límite, poner un filtro” a los contenidos de odio.

En este punto, según la entrevistada, se abre el debate acerca del perfil profesional que deben tener, por un lado, las personas responsables de filtrar la información que circula por la red y, por otro lado, de las encargadas de diseñar los algoritmos. Al respecto, afirmó: “Si hacemos un filtrado para que disminuyan los discursos de odio”, debemos tener en cuenta “quién los va a hacer, cómo se van a hacer”, y continuó: “En ese sentido, sí creo que es sumamente necesario implementar una regulación y un trabajo en equipo” entre los distintos actores sociales.

Por su parte, el perfil profesional de los y las tecnólogas que diseñan los algoritmos debe estar alejado de rasgos discriminatorios. Martínez advirtió que, si ese o esa profesional “no tiene formación en ética, no tiene consciencia social, no tiene un equipo transdisciplinario que lo acompañe, no tiene formación en perspectiva de género”, de nada servirá controlar a Facebook.

Por esta razón, “no hay una única solución, sino que es un conjunto de actitudes que se tienen que tener para disminuir los sesgos que se pueden producir o intentar disminuir los discursos de odio”.

Imagen ilustrativa publicada en Syneidis

Recomendaciones

“Hay una frase que me gusta mucho, que dice: 'Procurá conocerte mucho a vos mismo, más de lo que el algoritmo ya te conoce'. Los algoritmos están superentrenados, superafilados para extraer datos”, comentó la cofundadora de Legaltech Seed. Entonces, es necesario no solo conocer los riesgos de publicitar nuestras cotidianidades, sino también las estrategias de prevención.

Una medida que se vuelve primordial, según la entrevistada, es introducir modificaciones en instituciones educativas: “No podemos seguir hablando en las universidades de temas que hoy en día realmente no nos sirven mucho para la era 4.0”. En su lugar, habría que educar en “cómo protejo mis datos personales, qué datos estoy compartiendo, qué puedo hacer si me pasa tal situación en las redes sociales” y demás.

También ayuda a prevenir “compartir la menor cantidad de información privada” y “no enviar, por ejemplo, fotos íntimas, o enviarlas con determinadas prácticas –como la función de bombita, para que se borren–. De igual manera, es muy difícil porque la otra persona puede estar con otro celular y sacarle una foto”.

Finalmente, destacó la importancia de pensar antes de publicar: “Pensar qué quiero que se comparta, qué quiero que no se comparta, qué estoy compartiendo y, con base en eso, lograr la determinación –en tanto y en cuanto se pueda– de mi identidad y de mi intimidad digital”.

datos algoritmos discursos de odio