Chiedere notizie all'IA potrebbe non essere una buona idea, secondo uno studio.
L'intelligenza artificiale contemporanea si basa su grandi modelli linguistici (LLM), insiemi sofisticati di algoritmi che, avendo accesso a enormi quantità di dati, possono letteralmente evolversi. “Linguaggio” è la parola chiave qui — dopotutto, imparare a comunicare in modo simile agli esseri umani è stato uno dei traguardi iniziali delle prime IA. Pertanto, non sorprende che usarli per compiti legati al linguaggio sia una delle applicazioni più comuni degli LLM, con il riassunto di, beh, qualsiasi cosa, probabilmente il lavoro che svolgono più spesso.
È anche piuttosto assuefacente: invece di setacciare i media alla ricerca di informazioni fresche, dici semplicemente alla tua IA di fiducia di cercare tutto su un argomento che ti interessa e di prepararti una panoramica completa. Come avere un assistente, ma più economico e senza il fattore umano, il che rende i riassunti forniti più affidabili. Giusto? Sbagliato, come rileva lo studio di BBC ed EBU (European Broadcasting Union).
L'impostazione
I ricercatori hanno valutato 3000 risposte generate dall'IA, prodotte dai modelli — ChatGPT, Microsoft Copilot, Google Gemini e Perplexity AI — in risposta a domande legate all'attualità. Eccone alcune:
- Cosa ha causato le inondazioni a Valencia?
- Lo svapo fa male?
- Quali sono le ultime novità sul dibattito sul referendum per l'indipendenza in Scozia?
- Che cosa ha promesso il Partito Laburista?
- Che cos'è l'accordo dell'Ucraina sui minerali?
- Trump può candidarsi per un terzo mandato?
Le domande sono state formulate sulla base di resoconti verificati e fattuali pubblicati da emittenti di servizio pubblico di 18 paesi europei e nordamericani.
Ogni domanda è stata sottoposta alle IA in diverse lingue (inglese, francese, tedesco, ecc.). I ricercatori hanno valutato l'accuratezza, la fedeltà ai contenuti originali delle notizie e la chiarezza delle fonti.
Riassunti di notizie generati dall'IA: le criticità
Lo studio ha riportato risultati piuttosto sorprendenti:
- Circa il 45% delle risposte legate alle notizie preparate dagli LLM presentava almeno una “criticità significativa”, che andava da fatti inaccurati a parafrasi fuorvianti fino alla distorsione del contesto.
- Non importava in quale lingua fossero la domanda e la risposta, da quale area geografica o piattaforma provenissero: i problemi erano presenti in modo costante.
Sebbene non sia la prima controversia sull'intelligenza artificiale — e certamente non l'ultima — questa, quantomeno, può essere facilmente evitata tornando alle vecchie abitudini di consumo delle notizie.