📅 2026年04月08日 18:08
Google’s AI search is producing millions of wrong answers every day - GoogleのAI検索が毎日数百万の誤回答を生んでいる
検索結果をそのまま信じて大丈夫?Google AIの「誤答(ハルシネーション)」が日常化する危機
要約
調査ではGoogleの生成AI(Gemini系)の要約はおおむね高精度だが、約1割が誤情報を含み、検索ボリュームを考えると「毎時間数千万件」の誤回答が生じ得ると指摘されている。
この記事を読むべき理由
日本でも検索AIはニュース確認や製品調査、社内リサーチに直結する。誤回答が高トラフィック下で常態化すると、誤情報拡散・ビジネス判断ミス・SEOやサービス設計への影響が広範に及ぶため、開発者・編集者・一般ユーザーともに知っておくべき問題です。
詳細解説
- 評価元と手法:AIスタートアップOumiがSimpleQAベンチマークを用いて4,326件の検索を分析。報告はThe New York Times経由で広まった。
- 精度の推移:Gemini v2では約85%正確、Gemini 3は約91%に改善。ただしOumiの大量評価は別のAIツールに依存しており評価誤差の可能性がある。
- 量的インパクト:Googleは年間約5兆(5×10^12)クエリを処理するとされ、仮に1割が誤りなら年間5×10^11件、1時間あたり約5.7×10^7件(約5700万件)、分あたり約95万件の誤回答に相当する(記事の概算)。
- Googleの反論と内部値:GoogleはOumiの手法を「現実の検索行動を反映していない」と批判。自社テストではGemini 3単体での「ハルシネーション率」を28%と報告している。
- 出典の問題:AI要約に付随するリンクが要約の主張を裏付けないケースが頻発。要約と参照ページの不整合は、Gemini 2の37%からGemini 3で56%へ増加した。
- 操作耐性の低さ:外部記事(例:意図的に誤情報を含むブログ)が短期間でAI要約に反映される事例がある。
- 業界の姿勢:MicrosoftやGoogleなどは利用規約や注記で「二重チェックを推奨」や「重要決定には不向き」と明記している。
実践ポイント
- ユーザー:AI要約は一次ソース(公的データ、学術・公式ページ)で必ず裏取りする。複数検索・日付確認を習慣化。
- 編集者/記者:AI要約をそのまま記事に使わない。引用元の一次確認と明示を徹底する。
- 開発者/プロダクト:生成結果に対する検証レイヤー(ファクトチェック、自動ソース整合性チェック、人間の監査)を組み込む。信頼スコアや出典透明化をUIで示す。
- 企業リスク管理:AI検索を業務意思決定に使う際は利用ポリシーと監査ログを整備し、法務・コンプライアンスと連携する。
以上。