ニュースをAIに頼るのは良い考えではないかもしれないと、研究が示しました.
現代の人工知能は大規模言語モデル(LLM)に依拠しており、膨大なデータにアクセスできれば文字通り進化し得る高度なアルゴリズムの集合体だ。“言語”こそがここでのキーワードであり—そもそも人間のようにコミュニケーションを学ぶことは初期のAIの最初の成果の一つだった。したがって、それらを言語関連のタスクに用いることがLLMの最も一般的な応用の一つであり、要するに何であれ要約させることは、おそらく彼らが最もしばしば担っている仕事だ。
これがまたかなり中毒性がある。最新情報を求めてニュースメディアを探し回る代わりに、関心のあるテーマについてすべてを調べ、包括的なまとめを用意するよう、好みのAIに指示するだけでいい。秘書がいるようなものだが、より安価で、人間要因がないぶん提供される要約はより信頼できる。そうだろう? いや、違うと、BBCとEBUによる調査(欧州放送連合)は結論づけている。
調査の設定
研究者らは、ニュース関連の質問に対してモデル—ChatGPT、Microsoft Copilot、Google Gemini、Perplexity AI—が生成した3,000件の回答を評価した。以下はその一部だ。
- バレンシアの洪水は何が原因だったのか?
- ヴェイピングは健康に悪いのか?
- スコットランドの独立住民投票をめぐる議論の最新情報は?
- 労働党は何を約束したのか?
- ウクライナの鉱物取引とは何か?
- トランプは3期目に出馬できるのか?
これらの質問は、欧州および北米の18カ国の公共放送が公開した、検証済みの事実報道に基づいて作成された。
各質問は、英語、フランス語、ドイツ語など異なる言語でAIに提示された。研究者らは、正確性、元のニュース内容への忠実さ、情報源の明確さを評価した。
AI生成のニュース要約:欠点
この論文は、かなり驚くべき発見を報告している。
- LLMが作成したニュース関連の回答の約45%に、事実の不正確さ、誤解を招く言い換え、文脈の誤表現など、少なくとも一つの“重大な問題”が見られた。
- 質問と回答の言語、地域、プラットフォームが何であっても関係なく、問題は一貫して存在した。
人工知能をめぐる論争はこれが初めてでも—そしてもちろん最後でも—ないが、少なくとも今回の件は、昔ながらのニュース消費の習慣に立ち戻ることで容易に回避できる。