Lehet, hogy nem jó ötlet mesterséges intelligenciától híreket kérni – állapítja meg egy tanulmány.
A kortárs mesterséges intelligencia nagy nyelvi modellekre (LLM-ekre) támaszkodik, olyan kifinomult algoritmuskészletekre, amelyek, ha hatalmas mennyiségű adathoz férnek hozzá, szó szerint képesek fejlődni. “Nyelv” itt a kulcsszó — végül is az, hogy az emberhez hasonlóan megtanuljanak kommunikálni, az első MI-k korai teljesítményei közé tartozott. Így nem meglepő, hogy a nyelvvel kapcsolatos feladatokra való használatuk az LLM-ek egyik leggyakoribb alkalmazása, és talán a leggyakrabban végzett feladatuk a — nos — bárminek az összefoglalása.
Ez ráadásul elég addiktív is: ahelyett, hogy a hírmédiát bújnád friss információkért, egyszerűen megkéred a választott MI-det, hogy nézzen utána mindennek, ami egy téma kapcsán érdekel, és készítsen átfogó összefoglalót. Olyan, mintha titkárod lenne, csak olcsóbban és emberi tényező nélkül, ami a kapott összefoglalókat megbízhatóbbá teszi. Ugye? Hát nem, ahogy azt a BBC és az EBU tanulmánya (Európai Műsorsugárzók Szövetsége) megállapítja.
A módszertan
A kutatók 3000, MI által generált választ értékeltek, amelyeket a modellek — ChatGPT, Microsoft Copilot, Google Gemini és Perplexity AI — hírekkel kapcsolatos kérdésekre adtak. Íme néhány közülük:
- Mi okozta a valenciai áradásokat?
- Káros-e az e-cigarettázás?
- Mik a legújabb fejlemények a skóciai függetlenségi népszavazás körüli vitában?
- Mit ígért a Labour?
- Mi az ukrajnai ásványkincsekre vonatkozó megállapodás?
- Indulhat-e Trump harmadik elnöki ciklusért?
A lekérdezéseket 18 európai és észak-amerikai ország közszolgálati műsorszolgáltatói által közzétett, ellenőrzött, tényszerű beszámolók alapján állították össze.
Minden lekérdezést különböző nyelveken (angolul, franciául, németül stb.) nyújtottak be az MI-knek. A kutatók a pontosságot, az eredeti hírtartalomhoz való hűséget és a forrásmegjelölés egyértelműségét értékelték.
Az MI által generált hírösszefoglalók: a hibák
A tanulmány meglepő megállapításokról számolt be:
- Az LLM-ek által készített, hírekkel kapcsolatos válaszok körülbelül 45%-ában legalább egy “jelentős probléma” volt, a pontatlan tényektől a félrevezető parafrazáláson át a kontextus félreértelmezéséig.
- Nem számított, milyen nyelven volt a kérdés és a válasz, milyen földrajzi területről vagy milyen platformról származtak: a problémák következetesen jelen voltak.
És bár nem ez az első — és bizonyosan nem is az utolsó — mesterséges intelligenciával kapcsolatos vita, ezt legalább könnyű elkerülni: csak vissza kell térni a régi hírfogyasztási szokásokhoz.