Estudio revela que asistentes de IA malinterpretan noticias en casi la mitad de los casos

Estudio revela que asistentes de IA malinterpretan noticias en casi la mitad de los casos

Un estudio coordinado por la Unión Europea de Radiodifusión (UER) y con la participación de Radio Televisión Española (RTVE) ha revelado que los asistentes de inteligencia artificial (IA) malinterpretan las noticias el 45 % del tiempo, sin importar el idioma, territorio o plataforma. El análisis, liderado por la BBC y basado en más de 3.000 respuestas en 14 idiomas de los asistentes ChatGPT, Copilot, Gemini y Perplexity, detectó que: El 20 % de las respuestas contenían problemas graves de precisión, incluyendo datos inventados e información desfasada. Un 31 % de las respuestas omitían la atribución correcta o citaban fuentes erróneas o engañosas. Gemini fue el asistente con peor desempeño, con un 76 % de respuestas problemáticas, principalmente por su bajo rendimiento en la búsqueda de fuentes. Los asistentes mostraron mayores dificultades en: Noticias de rápida evolución. Cronologías complejas con múltiples actores. Información detallada. Temas que requieren distinguir claramente entre hechos y opiniones. Ejemplos específicos con problemas significativos fueron las explicaciones sobre los aranceles de Donald Trump, la cifra de muertos del terremoto en Birmania (Myanmar) y el bombardeo estadounidense en Yemen en 2025. Jean Philip de Tender, subdirector general de la UER, advirtió que estos fallos "no son incidentes aislados, son sistémicos, transfronterizos y plurilingües y creemos que esto pone en peligro la confianza pública".

Source: Marca - 2025-10-22