مطالعهای نشان میدهد که درخواست خبر از هوش مصنوعی شاید ایده خوبی نباشد.
هوش مصنوعی معاصر بر مدلهای زبانی بزرگ (LLM) تکیه دارد؛ مجموعههای پیچیدهای از الگوریتمها که با دسترسی به حجم عظیمی از دادهها میتوانند بهمعنای واقعی کلمه تکامل پیدا کنند. “زبان” واژهٔ کلیدی اینجاست — بههرحال، یادگیریِ برقراری ارتباط شبیه انسانها یکی از نخستین دستاوردهای هوشهای مصنوعی اولیه بود. بنابراین تعجبی ندارد که استفاده از آنها برای کارهای مرتبط با زبان یکی از رایجترین کاربردهای LLMها باشد و احتمالاً خلاصهسازیِ، خب، تقریباً هر چیزی، کاری است که آنها بیش از همه انجام میدهند.
این کار اعتیادآور هم هست: بهجای زیروروکردن رسانههای خبری برای اطلاعات تازه، کافی است به هوش مصنوعیِ دلخواهتان بگویید هرچه دربارهٔ موضوعِ مورد علاقهتان هست پیدا کند و برایتان یک جمعبندی جامع آماده کند. مثل داشتن یک منشی، اما ارزانتر و بدون عامل انسانی، که خلاصههای ارائهشده را قابلاعتمادتر میکند. درست است؟ خیر؛ همانطور که مطالعهٔ BBC و EBU (اتحادیهٔ پخش اروپا) نشان میدهد.
طرح پژوهش
پژوهشگران ۳۰۰۰ پاسخِ تولیدشده توسط هوش مصنوعی را که بهوسیلهٔ مدلها — ChatGPT، Microsoft Copilot، Google Gemini و Perplexity AI — در پاسخ به پرسشهای مرتبط با خبر تولید شده بودند، ارزیابی کردند. برخی از آنها:
- چه عاملی باعث بروز سیل والنسیا شد؟
- آیا ویپ برای شما مضر است؟
- آخرین وضعیت بحث همهپرسی استقلال در اسکاتلند چیست؟
- حزب کارگر چه وعدهای داد؟
- توافق مربوط به مواد معدنی اوکراین چیست؟
- آیا ترامپ میتواند برای دورهٔ سوم نامزد شود؟
این پرسشها بر اساس گزارشهای واقعیِ تأییدشدهای تهیه شده بودند که توسط سازمانهای پخشِ خدمات عمومی از ۱۸ کشور اروپایی و آمریکای شمالی منتشر شده بود.
هر پرسش به زبانهای مختلف (انگلیسی، فرانسوی، آلمانی و غیره) به این هوشهای مصنوعی ارائه شد. پژوهشگران دقت، وفاداری به محتوای خبری اصلی و شفافیت منبعدهی را ارزیابی کردند.
خلاصههای خبریِ تولیدشده توسط هوش مصنوعی: کاستیها
این مقاله یافتههایی نسبتاً شگفتآور گزارش کرد:
- حدود ۴۵٪ از پاسخهای مرتبط با خبر که توسط LLMها تهیه شده بودند، دستکم یک “مسئلهٔ مهم” داشتند؛ از واقعیتهای نادرست و بازنویسیهای گمراهکننده گرفته تا ارائهٔ نادرستِ زمینه.
- مهم نبود پرسش و پاسخ به چه زبانی بودند، از کدام جغرافیا یا پلتفرم میآمدند: این مسائل بهطور مداوم مشاهده میشد.
هرچند این نخستین جنجال پیرامون هوش مصنوعی نیست — و قطعاً آخرین هم نخواهد بود — اما دستکم میتوان با بازگشت به روالهای قدیمیِ مصرف خبر، بهسادگی از این یکی پرهیز کرد.