Pedirle noticias a una IA quizá no sea una buena idea, según un estudio.
La inteligencia artificial contemporánea se basa en grandes modelos de lenguaje (LLM), conjuntos sofisticados de algoritmos que, con acceso a cantidades ingentes de datos, pueden literalmente evolucionar. “Lenguaje” es la palabra clave aquí — al fin y al cabo, aprender a comunicarse de forma similar a los humanos fue uno de los primeros logros de las primeras IA. Así, no sorprende que usarlos para tareas relacionadas con el lenguaje sea una de las aplicaciones más comunes de los LLM, siendo el resumen de, bueno, prácticamente cualquier cosa, probablemente el trabajo que realizan con más frecuencia.
También resulta bastante adictivo: en lugar de rebuscar en los medios de comunicación en busca de información reciente, simplemente le pides a la IA de tu elección que busque todo sobre el tema que te interesa y te prepare un resumen completo. Como tener una secretaria, pero más barato y sin el factor humano, lo que hace que los resúmenes ofrecidos sean más fiables. ¿Verdad? Pues no, como concluye el estudio de la BBC y la UER (Unión Europea de Radiodifusión).
El planteamiento
Los investigadores evaluaron 3000 respuestas generadas por IA que produjeron los modelos — ChatGPT, Microsoft Copilot, Google Gemini y Perplexity AI — en respuesta a consultas relacionadas con noticias. Aquí van algunas de ellas:
- ¿Qué causó las inundaciones en Valencia?
- ¿Es perjudicial el vapeo?
- ¿Cuál es la última información sobre el debate del referéndum de independencia en Escocia?
- ¿Qué prometió el Partido Laborista?
- ¿En qué consiste el acuerdo sobre minerales de Ucrania?
- ¿Puede Trump presentarse a un tercer mandato?
Las consultas se elaboraron a partir de informes verificados y fácticos publicados por radiodifusores de servicio público de 18 países europeos y norteamericanos.
Cada consulta se presentó a las IA en distintos idiomas (inglés, francés, alemán, etc.). Los investigadores evaluaron la exactitud, la fidelidad al contenido original de las noticias y la claridad de las fuentes.
Resúmenes de noticias generados por IA: las deficiencias
El estudio informó de hallazgos bastante sorprendentes:
- Alrededor del 45% de las respuestas relacionadas con noticias preparadas por LLM presentaban al menos un “problema significativo”, desde datos inexactos y paráfrasis engañosas hasta tergiversación del contexto.
- No importaba en qué idioma estuvieran la consulta y la respuesta, ni su procedencia geográfica o la plataforma: los problemas aparecían de forma consistente.
Aunque no es la primera controversia en torno a la inteligencia artificial — y desde luego no será la última — esta, al menos, puede evitarse fácilmente volviendo a las viejas rutinas de consumo de noticias.