Las IA hacen de todo y cada vez mejor, pero ¿generan conocimiento genuino?

La Facultad de Filosofía y Letras de la UNCUYO celebró la “Semana de la Investigación” y tuvo entre sus expositores a Tomás Balmaceda, filósofo, divulgador y estudioso del cruce entre tecnología y sociedad. De su charla, destacamos su visión sobre los desafíos que enfrentan las humanidades y la ciencias sociales frente al avance de la inteligencia artificial.

Las IA hacen de todo y cada vez mejor, pero ¿generan conocimiento genuino?

Esta imagen fue generada por ChatGPT al "estilo Lichtenstein". ¿Es genuina?

Sociedad

Tecnología y sociedad

Unidiversidad

Ezequiel Derhun

Publicado el 14 DE ABRIL DE 2025

“Algo falta. Hay algo allí que resulta plano, carente de la rugosidad que nuestra cotidianeidad nos demuestra día a día”, dijo Diego Niemetz en la jornada inaugural de la Semana de la Investigación en la Facultad de Filosofía y Letras de la UNCUYO. Las palabras del secretario de Investigación de la Facultad tienen que ver con el tema que atravesó las ponencias de cada charla: el cruce del mundo digital con las ciencias sociales y las humanidades. En ese entrecruzamiento, los modelos de Inteligencia Artificial (IA) son la clave para entender el presente, lo que viene en el futuro cercano y una pregunta determinante: ¿las IA generan conocimiento genuino?

Niemetz, doctor en Letras e investigador de Conicet, enunció sus palabras con una posdata aclaratoria: gran parte de su discurso, sobre todo la primera parte, fue elaborado gracias al aporte de diferentes LLM (sigla en inglés de Large Language Model), que son las famosas IA como ChatGPT, DeepSeek o Copilot. LLM es un acrónimo que se refiere a un modelo lingüístico grande de inteligencia artificial, y quien ha estudiado en profundidad su alcance es Tomás Balmaceda, doctor en Filosofía y reconocido divulgador que tuvo a cargo la conferencia de apertura.

Balmaceda aprovechó y tomó de ejemplo lo que hizo Niemetz para indicar que es algo que se viene cuestionando en muchos foros alrededor del mundo: ¿qué es el conocimiento?. "Las respuestas que generan estos chatbots, ¿constituyen conocimiento genuino o son otra cosa?, ¿Qué ocurre cuando la autoría de una obra generada en colaboración con una máquina es expuesta o no?”, se preguntó el filósofo, que también trabaja como comunicador especializado en tecnología.

Entonces, ¿qué debería suceder cuando textos (como esta nota) son escritos con asistencia de una IA (en este caso, Pinpoint y ChatGPT) para seleccionar y jerarquizar ideas, citas, enfoques, etc.? Balmaceda brindó algunas pistas para acercar una respuesta: "Una cosa es procesar información. Eso lo hacen las IA, y lo hacen muy bien. Otra cosa es conocer, y eso requiere una serie de capacidades que, al menos hoy, no vemos en estas herramientas", dijo, y luego amplió: “Conocer no es solo tener datos, sino entenderlos, darles sentido, relacionarlos con un contexto, con una experiencia vivida”. En este sentido, citó a la filósofa Diana Pérez, que sostiene: "ChatGPT es un modelo de lenguaje, no un modelo de mundo”. Así, el especialista en tecnología afirmó: “Creo que eso nos permite pensar para qué sirven. Entonces, desde esta perspectiva, las interpretaciones que hace la IA serían vacías, espejos de otras interpretaciones humanas previas, sin la chispa del entendimiento genuino, la originalidad”.

Tomás Balmaceda en la inauguración de la Semana de la Investigación. Foto: gentileza Prensa FFyL

En otro segmento, agregó: “El conocimiento se construye socialmente. Se discute, se comparte, se valida. Las IA no participan de ese proceso como nosotros". De esta manera, el divulgador conocido en redes sociales como Capitán Intriga se acercó a lo que Niemetz planteó en un principio: algo les falta a las IA para acercarse a nuestra cotidianeidad, hay algo que les falta para que nos suene más genuino. Incluso, los modelos de IA conocidos hasta el momento en materia de ciencias sociales parecen no escapar de lo “políticamente correcto”.

“Tenemos que dejar de pensar en estas herramientas como seres que conocen. Son útiles, poderosas, pero —insistió Balmaceda— no conocen". La potencia que entregan modelos como ChatGPT aún carece de ese condimento cargado de subjetividad que, todavía, parece ser patrimonio exclusivo de las personas.

Una puerta abierta para las ciencias sociales

"La inteligencia artificial se metió de lleno en el terreno de las humanidades y las ciencias sociales”, comentó el filósofo invitado, y abrió una puerta hacia un futuro que, por momentos, se ve muy difuso para quienes caminan, por ejemplo, los pasillos de Filosofía y Letras. Es que las IA ya son una herramienta decisiva a la hora de investigar, dado que, como dijimos, nos ayudan y nos asisten para “traducir textos, transcribir entrevistas, buscar tendencias”.

Sin embargo, Balmaceda indicó una vez más: “No creo que sustituya la perspectiva humana profunda, la que conecta datos con significado, con hechos vivos, de la experiencia humana. Puede obligarnos, en todo caso, a afinar aún más nuestras habilidades interpretativas”.

Según contó Niemetz, hay una inquietud latente por esta encrucijada que enlaza los modelos de IA con la investigación en ciencias sociales. Una prueba es que 202 expositores participaron de las diferentes charlas y ponencias en la Semana de la Investigación en FFyL, muchos de ellas y ellos, estudiantes que expusieron por primera vez ante un auditorio. Asimismo, los organizadores celebraron que hubo 753 asistentes registrados.

La apertura de la Semana de la Investigación fue a sala llena. Foto: gentileza Prensa FFyL

Para cerrar, Balmaceda siguió en tono optimista en cuanto a su mirada sobre el futuro de la investigación en Humanidades y Ciencias Sociales, dejó un poco de lado las advertencias más apocalípticas y aseguró que el diálogo entre disciplinas es “imprescindible”. “Repensar el conocimiento en la era de los algoritmos es una tarea que no podrá hacer solo un ingeniero, no solo un filósofo; requerirá de mentes que combinen habilidades técnicas con pensamiento de las humanidades. La inteligencia artificial, para mí, es una especie de espejo invertido. Es un espejo que no nos muestra lo que somos, sino lo que no somos”, aseguró.

IA, una cuestión de poder

Para culminar esta nota, nos pareció importante destacar un segmento de la charla de Balmaceda, donde habló sobre cómo se puede controlar, qué se puede llegar a regular, ante el avance acelerado de los modelos de LLM en el mundo.  

La mala noticia es algo que ya sabemos hace un tiempo: la tecnología avanza mucho más rápido que las normas consensuadas. Entonces, entendiendo que, en la geopolítica, en la discusión del poder global, el desarrollo de las IA es clave, el filósofo propuso seguir el mapa ideológico de las tecnologías.

Dijo que, por un lado, están Silicon Valley y su visión de innovar sin restricciones. “Una innovación sin ningún tipo de restricción, porque eso, naturalmente, va a generar mayor productividad, va a generar más ganancia y va a derramar. Es la idea de 'No me controles, yo me autorregulo’”. Por otro lado, señaló la visión que tiene Washington, que busca imponer la lógica de que lo importante es que la tecnología genere riqueza, sin importar cómo.

“Después está el consenso de Bruselas, que sería la idea de que los Estados tienen que regular a estas a estas empresas. Uno ve lo que pasa en Europa con estas leyes antimonopólicas, leyes muy fuertes sobre inteligencia artificial, pero luego está Trump, que se burla de esas leyes rígidas. Incluso Macron, que dijo que tenemos que tratar de salir del corsé que nos impide progresar”, comentó Balmaceda. Por último, destacó el consenso de Pekín, “donde el Estado controla y regula todo”.

De estas cuatro ideologías, ninguna es perfecta. Pero lo más interesante para nosotros es que ninguna se aplica a América Latina porque no tenemos ni las empresas fuertes que tiene Estados Unidos, ni los países fuertes que tiene Europa y, por suerte, tampoco un regimiento totalitario como el chino”, señaló. Entonces, de alguna manera, pareciera que en este lugar del mundo nos quedamos un poco afuera y solo nos resta observar qué va a suceder. Mientras tanto, lo más firme que hay es el consenso de Montevideo, contó Balmaceda, que propone una visión “humanocéntrica”. 

“Las tecnologías en general y los sistemas de Inteligencia Artificial (IA) en particular deben ser puestos al servicio de las personas. Mejorar la calidad de vida, las condiciones laborales, económicas, de salud y de bienestar general debe ser nuestra prioridad”, propuso el documento firmado en 2023.

Acá podés ver la charla completa de Tomás Balmaceda en Filosofía y Letras

 

inteligencia artificial, ciencias sociales, investigación,