以前、ナビゲーションを使用するときは、まるで機械と会話しているような感じだった。今では、Googleはあなたが地元のエキスパートと会話しているように感じてほしいと考えている。本日、Googleマップは正式に大規模モデルを導入し、「Ask Maps」という注目すべき機能をリリースした。簡単に言うと、マップが人間の言葉を理解できるようになり、ちょっと過剰なほど詳細なニーズにも対応できるようになったということだ。

このような恥ずかしい場面になったことはないだろうか?スマホを充電したいけど、お店に入ってコーヒーを買わずに済ませたいとき。あるいは、 unfamiliar な街で「あまり汚くない」トイレを探しているとき。過去には、こうした質問で検索ボックスが動かなくなることもあったが、Geminiの活用により、Googleマップは瞬時に答えを出せるだけでなく、ルートも丁寧に教えてくれる。

image.png

発表会でのデモでは、Googleの製品責任者が非常に複雑なシナリオを紹介した。「会社と友達の家の中間にあり、雰囲気が良く、ベジタリアン対応で、 tonight の7時時点で4人座れるレストランを探して」という指示を受けた後、Ask Mapsは膨大なユーザー評価や写真を迅速に分析し、どの店が最近騒々しかったか、または雰囲気のある店かどうかなども教えてくれる。もし気に入ったら、クリックするだけで予約が完了する。

賢くなっただけでなく、Googleマップの見た目もよりリアルになった。新しく登場した「没入型ナビゲーション」は、10年ぶりのUIのアップデートと評価されている。有効にすると、細かい3D建物、現実的な植物のディテール、高架橋のテクスチャまで見えるようになる。複雑な交差点では歩道や信号機が強調表示されるため、「車線変更恐怖症」も完全に解消される。

現在、「Ask Maps」機能は、本週からアメリカとインドで先行リリースされている。Googleの幹部が述べたように、AIの導入は「スクリーンをもっと見ずに、外に出かけて行動するようにするため」である。あなたのマップが、あなたのほうが近くの風景やレストランをよく知っているようになると、このような「口で話すだけで手を動かさない」移動方法、期待できますか?