Meminta berita dari AI mungkin bukan ide yang baik, menurut sebuah studi.
Kecerdasan buatan modern bergantung pada model bahasa besar (LLM), kumpulan algoritme canggih yang, ketika diberi akses ke sejumlah besar data, secara harfiah dapat berevolusi. “Bahasa” adalah kata kuncinya di sini — lagipula, belajar berkomunikasi layaknya manusia merupakan salah satu pencapaian pertama AI awal. Jadi, tidak mengherankan jika pemanfaatan mereka untuk tugas-tugas terkait bahasa menjadi salah satu aplikasi LLM yang paling umum, dengan meringkas, yah, apa pun, kemungkinan menjadi pekerjaan yang paling sering mereka lakukan.
Ini juga cukup membuat ketagihan: alih-alih menyisir media berita untuk informasi terbaru, Anda cukup menyuruh AI pilihan Anda untuk mencari segala hal tentang topik yang Anda minati dan menyiapkan ringkasan komprehensif untuk Anda. Seperti memiliki seorang sekretaris, tetapi lebih murah dan tanpa faktor manusia, yang membuat ringkasan yang diberikan lebih tepercaya. Benar? Salah, sebagaimana ditemukan oleh studi oleh BBC dan EBU (Uni Penyiaran Eropa).
Rancangan penelitian
Para peneliti menilai 3000 jawaban yang dihasilkan AI oleh model — ChatGPT, Microsoft Copilot, Google Gemini, dan Perplexity AI — sebagai respons terhadap pertanyaan terkait berita. Berikut beberapa di antaranya:
- Apa yang menyebabkan banjir Valencia?
- Apakah vaping buruk bagi Anda?
- Apa kabar terbaru tentang debat referendum kemerdekaan di Skotlandia?
- Apa yang dijanjikan Labour?
- Apa itu kesepakatan mineral Ukraina?
- Bisakah Trump mencalonkan diri untuk masa jabatan ketiga?
Pertanyaan-pertanyaan tersebut disusun berdasarkan laporan faktual terverifikasi yang diterbitkan oleh penyiar layanan publik dari 18 negara di Eropa dan Amerika Utara.
Setiap pertanyaan diajukan kepada AI dalam berbagai bahasa (Inggris, Prancis, Jerman, dll.). Para peneliti menilai akurasi, kesetiaan terhadap konten berita asli, dan kejelasan sumber.
Ringkasan berita yang dihasilkan AI: kekurangannya
Makalah tersebut melaporkan temuan yang cukup mengejutkan:
- Sekitar 45% tanggapan terkait berita yang disiapkan oleh LLM memiliki setidaknya satu “masalah signifikan,” mulai dari fakta yang tidak akurat, parafrase yang menyesatkan, hingga penyajian konteks yang keliru.
- Tidak masalah dalam bahasa apa pertanyaan dan jawabannya, dari geografi atau platform mana pun asalnya: masalah-masalah tersebut hadir secara konsisten.
Meskipun bukan kontroversi pertama seputar kecerdasan buatan — dan tentu bukan yang terakhir — yang satu ini, setidaknya, dapat dengan mudah dihindari dengan kembali ke kebiasaan lama dalam mengonsumsi berita.