Искането на новини от изкуствен интелект може да не е добра идея, показва проучване.
Съвременният изкуствен интелект разчита на големи езикови модели (LLMs), сложни набори от алгоритми, които, когато имат достъп до огромни количества данни, могат буквално да еволюират. “Език” е ключовата дума тук — в крайна сметка, научаването да комуникират подобно на хората беше едно от първите постижения на ранните ИИ. Следователно не е изненадващо, че използването им за задачи, свързани с езика, е едно от най-честите приложения на LLM-ите, като обобщаването на, хм, почти всичко, вероятно е задачата, която те изпълняват най-често.
И е доста пристрастяващо: вместо да претърсвате медиите за най-новата информация, просто казвате на избрания от вас ИИ да провери всичко за темата, която ви интересува, и да ви подготви изчерпателно резюме. Все едно имате секретар, но по-евтино и без човешкия фактор, което прави предоставените обобщения по-надеждни. Нали? Грешка, както показва изследването на BBC и EBU (Европейски съюз за радио и телевизия).
Методология
Изследователите оцениха 3000 отговора, генерирани от ИИ, произведени от моделите — ChatGPT, Microsoft Copilot, Google Gemini и Perplexity AI — в отговор на запитвания, свързани с новини. Ето някои от тях:
- Какво причини наводненията във Валенсия?
- Вредно ли е вейпването?
- Какво е последното около дебата за референдума за независимост в Шотландия?
- Какво обещаха лейбъристите?
- Какво представлява споразумението за минералните ресурси на Украйна?
- Може ли Тръмп да се кандидатира за трети мандат?
Запитванията бяха съставени въз основа на проверени фактически репортажи, публикувани от обществени радио- и телевизионни оператори от 18 европейски и северноамерикански държави.
Всяко запитване беше подавано към ИИ на различни езици (английски, френски, немски и др.). Изследователите оценяваха точността, вярността към оригиналното новинарско съдържание и прозрачността на източниците.
Обобщения на новини, генерирани от ИИ: недостатъците
Докладът отчете доста изненадващи констатации:
- Около 45% от отговорите, свързани с новини, подготвени от LLM-ите, имаха поне един “съществен проблем,” от неточни факти през подвеждащо преразказване до изопачаване на контекста.
- Нямаше значение на какъв език бяха запитването и отговорът, от коя география или платформа произхождаха: проблемите се проявяваха системно.
Макар това да не е първият спор около изкуствения интелект — и със сигурност няма да е последният — поне този може лесно да бъде избегнат, ако се върнем към старите си навици за потребление на новини.