La IA distorsiona las noticias: el 45% de los contenidos generados son imprecisos o falsos

Según un informe de la BBC y la UER, los asistentes de inteligencia artificial cometen errores en casi la mitad de las noticias que producen. El hallazgo reabre el debate sobre la fiabilidad de estas herramientas, cada vez más utilizadas como fuentes de información cotidiana.

La IA distorsiona las noticias: el 45% de los contenidos generados son imprecisos o falsos

Casi la mitad de las noticias generadas por IA contienen errores o distorsiones, según una investigación internacional. Foto: RTVE.

Sociedad

Inteligencia artificial en todos lados

Unidiversidad

Unidiversidad

Publicado el 05 DE NOVIEMBRE DE 2025

Una reciente investigación coordinada por la Unión Europea de Radiodifusión (UER) y dirigida por la BBC reveló que los asistentes de inteligencia artificial (IA) distorsionan los contenidos periodísticos en un 45 % de los casos, sin importar el idioma o el país en el que operen. El hallazgo reabre el debate sobre la fiabilidad de estas herramientas, cada vez más utilizadas como fuentes de información cotidiana.

El estudio involucró a 22 medios públicos de 18 países, que analizaron más de 300.000 respuestas generadas por sistemas como ChatGPT, Copilot, Gemini y Perplexity. Los equipos evaluaron cuatro aspectos fundamentales: precisión, referencia a las fuentes originales, contexto y capacidad para distinguir entre hechos y opiniones. Según los investigadores, se trata del análisis más amplio y exhaustivo realizado hasta la fecha sobre el comportamiento informativo de la IA.

Los asistentes de IA analizados incluyen ChatGPT, Gemini, Copilot y Perplexity. Foto ilustrativa.

Gemini, el peor desempeño entre los asistentes analizados

Los resultados fueron contundentes: casi la mitad de las respuestas contenían errores relevantes. El 31 % presentaba problemas de atribución —desde citas inexistentes hasta referencias engañosas o incorrectas—, mientras que otro 20 % mostraba falta de precisión, con datos desactualizados o directamente inventados.

“Las noticias precisas y de alta calidad son un pilar fundamental de las sociedades democráticas. Representar fielmente cómo una fuente presenta un hecho u opinión es clave para garantizar la exactitud y la calidad”, advierte el informe. “Cualquier contenido editorial entregado por un asistente de IA sin una señalización clara puede inducir a error a los lectores”, agrega.

Entre las plataformas evaluadas, Gemini fue la que obtuvo el peor desempeño, con un 76 % de errores significativos, más del doble que el resto. Este resultado preocupa especialmente por el papel central que Google ocupa en la distribución de información y por su reciente impulso para integrar funciones basadas en este modelo, como el Modo IA o los resúmenes automáticos de Google Search.

“Estas deficiencias no son incidentes aislados, sino problemas sistémicos y globales que amenazan la confianza pública”, advirtió Jean Philip De Tender, director de medios y subdirector general de la UER. “Cuando la gente no sabe en qué confiar, termina por no confiar en nada, y eso puede frenar la participación democrática”, añadió.

Gemini, de Google, fue el sistema con mayor tasa de errores en las pruebas. Foto: Freepik.

Jóvenes y usuarios digitales, los más propensos a informarse con IA

El Informe de Noticias Digitales 2025 del Instituto Reuters complementa estos hallazgos al mostrar que los asistentes de IA comienzan a consolidarse como nuevas fuentes informativas. En promedio, el 7 % de usuarias y usuarios en línea ya recurre a alguna de estas herramientas para informarse, cifra que asciende al 15 % entre menores de 25 años.

El público valora especialmente los resúmenes automáticos (27 %), la traducción de contenidos (24 %), las recomendaciones personalizadas (21 %) y los chatbots de noticias (18 %). Sin embargo, la mayoría de las personas mantiene una actitud de cautela y confía más en la información cuando existe supervisión humana.

El estudio concluye que, aunque la IA promete abaratar y acelerar la producción de noticias, también puede hacerlas menos transparentes, menos precisas y confiables. Especialistas coinciden en que, en el contexto actual, la verificación y la mediación humana siguen siendo indispensables para preservar la calidad informativa y la confianza en el periodismo.

Fuente: Unión Europea de Radiodifusión - BBC - Reuters

inteligencia artificial, noticias falsas, desinformación,