Meminta berita daripada AI mungkin bukan idea yang baik, menurut satu kajian.
Kecerdasan buatan kontemporari bergantung pada model bahasa besar (LLM), set algoritma yang canggih yang, apabila diberi akses kepada sejumlah besar data, boleh, secara literal, berevolusi. “Bahasa” ialah kata kunci di sini — maklumlah, mempelajari cara berkomunikasi hampir seperti manusia merupakan antara pencapaian terawal AI generasi awal. Maka, tidak menghairankan bahawa menggunakannya untuk tugasan berkaitan bahasa ialah antara aplikasi LLM yang paling lazim, dengan membuat ringkasan — apa sahaja, sebenarnya — barangkali menjadi tugas yang paling kerap mereka lakukan.
Ia juga cukup mengasyikkan: daripada menyisir media berita untuk mendapatkan maklumat baharu, anda hanya mengarahkan AI pilihan anda untuk mencari segala-galanya tentang topik yang anda minati dan menyediakan liputan komprehensif untuk anda. Seperti mempunyai seorang setiausaha, tetapi lebih murah dan tanpa faktor manusia, yang kononnya menjadikan ringkasan yang diberikan lebih boleh dipercayai. Betul? Salah, seperti yang didapati oleh kajian oleh BBC dan EBU (Kesatuan Penyiaran Eropah).
Tetapan
Para penyelidik menilai 3000 jawapan yang dijana AI yang dihasilkan oleh model — ChatGPT, Microsoft Copilot, Google Gemini, dan Perplexity AI — sebagai respons kepada pertanyaan berkaitan berita. Berikut sebahagiannya:
- Apa yang menyebabkan banjir di Valencia?
- Adakah vaping memudaratkan?
- Apakah perkembangan terkini mengenai perdebatan referendum kemerdekaan di Scotland?
- Apakah yang dijanjikan oleh Parti Buruh?
- Apakah perjanjian mineral Ukraine?
- Bolehkah Trump bertanding untuk penggal ketiga?
Pertanyaan tersebut digubal berdasarkan laporan berfakta yang telah disahkan, diterbitkan oleh penyiar perkhidmatan awam dari 18 negara di Eropah dan Amerika Utara.
Setiap pertanyaan dihantar kepada AI dalam pelbagai bahasa (Inggeris, Perancis, Jerman, dan lain-lain). Para penyelidik menilai ketepatan, kesetiaan kepada kandungan berita asal, dan kejelasan sumber.
Ringkasan berita yang dijana AI: kelemahan
Kertas tersebut melaporkan dapatan yang agak mengejutkan:
- Kira-kira 45% respons berkaitan berita yang disediakan oleh LLM mempunyai sekurang-kurangnya satu “isu besar,” daripada fakta yang tidak tepat, parafrasa yang mengelirukan, hinggalah salah perwakilan konteks.
- Tidak kira dalam bahasa apa pertanyaan dan jawapannya, dari geografi atau platform mana ia datang: isu-isu itu wujud secara konsisten.
Walaupun ini bukan kontroversi pertama tentang kecerdasan buatan — dan pastinya bukan yang terakhir — sekurang-kurangnya yang ini boleh dielakkan dengan mudah dengan kembali kepada rutin lama dalam mendapatkan berita.