グーグルは、検索体験の再構築以来最大の品質と信頼の危機に直面しています。AIオーバービューがグーグル検索の中心となりつつあるにもかかわらず、偽情報の作成や矛盾した回答、医療などの重要な分野で誤ったアドバイスを提供する「幻覚」現象が頻繁に発生し、このテクノロジー大手は緊急対策を講じる必要があります。

最新の求人情報によると、グーグルは「AI回答品質エンジニア」を募集しており、これはAIモデルおよび検索結果ページ(SRP)内の生成された回答の最適化を専門とする職種です。求人要件によれば、これらのエンジニアは複雑な質問に対するAIのパフォーマンスを改善し、インフラストラクチャーの拡張を維持しながら情報の正確性を確保することを目指しています。これは、外界から見れば、グーグルがAIオーバービュー機能の信頼性に重大な欠陥があることを初めて間接的に認めたものと解釈されています。
実際のテストでは問題の深刻さが明らかになりました。同一のスタートアップ企業の価値に関する2回の質問に対して、AIオーバービューは400万ドルから7,000万ドルまでの完全に誤った引用回答を提供しました。さらに深刻なのは、『ガーディアン』が最近明らかにしたように、グーグルのAIが膵臓がんなどの重篤な病気について健康アドバイスを提供する際に、医療基準と完全に逆の、場合によっては致命的な指示を出したことです。
また、グーグルがDiscover情報流でテストしているAIによるニュースタイトルの再構成機能も、誤解を招くような「見出しジャンキー」コンテンツを生成したため、出版者から強い批判を受けました。グーグル検索結果へのユーザーの自然な信頼が脅かされる中、AIの幻覚を排除することは、グーグルが検索市場の覇者の地位を守るために行う重要な戦いとなっています。
