
La capacidad de las plataformas de inteligencia artificial (IA) para difundir información falsa casi se ha duplicado en el último año, según un informe publicado este jueves por la web de análisis NewsGuard.
El estudio señala que el porcentaje de respuestas que incluyen datos falsos pasó del 18 % en agosto de 2024 al 35 % en agosto de 2025, tras evaluar el desempeño de las diez principales herramientas de IA.
De acuerdo con el informe, los modelos de lenguaje tratan fuentes poco fiables como si fueran verídicas y, en muchos casos, se nutren de un ecosistema informativo «contaminado», a veces sembrado deliberadamente por redes de desinformación extranjeras.
El análisis advierte que la búsqueda de hacer a los chatbots más receptivos los ha vuelto también más propensos a difundir propaganda. En julio de 2024, NewsGuard ya había detectado que el 32 % de los modelos más utilizados replicaban narrativas de la campaña rusa de desinformación Storm-1516, disfrazadas de medios locales legítimos.
Una de las mejoras reportadas es la reducción de las tasas de “no respuesta”: de un 31 % en 2024 al 0 % en 2025. Sin embargo, NewsGuard advierte que esta evolución tuvo un costo: los chatbots, al acceder en tiempo real a la web, se volvieron más propensos a amplificar falsedades durante eventos de última hora, precisamente cuando más ciudadanos acuden a estas herramientas.