AIアシスタントは「ただ口だけ」から「あなたに代わって動く」へと進化しています。

最近、グーグルPixel10ProGalaxy S26UltraGeminiのタスク自動化機能(Task Automation)を正式リリースしました。これはAIアシスタントが「対話ツール」から「実行エージェント(Agent)」へと進化したことを示しており、質問に答えるだけでなく、スマホの画面を直接操作してあなたの代わりに行動することができるようになります。

実機体験:完全な「ハンドルフリー」だが、少し忍耐が必要

OSCHINAが公開した実際のケースでは、DoorDashの配達注文をしたい場合、Geminiに自然言語で指示を出すだけで、以降の作業はまるで「SF映画のようなもの」です:

バックグラウンドでの自動操作: AIがアプリを自動的に開き、画面要素を認識し、フォームを入力し、オプションを選択して、最終的に注文を確定します。

非同期実行: 実行中には画面下部に「目的地を選択中」といったステータスがリアルタイムで表示されます。最もクールなのは、動画を見たりメールを返信したりと他の作業に切り替えることができることです。AIはバックグラウンドで継続的に動作し、タスクが完了するまで待つことができます。

速度の課題: 現時点での欠点は「遅さ」です。AIが画面を1フレームずつ認識し、クラウドで推論を行うため、手動で2分かかるタスクでも、AIは9分かかってしまいます。

技術的突破:10年間の「情報検索」の壁を打ち破る

過去10年間、SiriやGoogle Assistantといった音声アシスタントは、アラーム設定や天気確認といった浅いインタラクションにとどまっていました。Geminiのタスク自動化の核心的な突破点は、複雑な長時間のタスク計画能力を持たせたことで、「指示を出す-結果を待つ」ことが可能になりました。

エコシステムの制約:まだ「概念製品」の段階

見込みが良いにもかかわらず、現在の自動化機能には多くの課題があります:

対応範囲が狭い: 現在はUberやDoorDashなど、プロセスが非常に標準化されているアプリのみ対応しています。

誤りの許容度が低い: 画面認識ミスや支払い時のセキュリティ制限は、その広範囲な普及を妨げるハードルとなっています。

大手企業の暗闘:2026年が「AIエージェント」元年になる

OpenAIのOperatorやアップルのApple Intelligenceの登場により、グーグルはモバイル端末で先手を打つことで、Androidエコシステムを活用して頻繁な生活シーンを獲得しようとしています。

今の段階では、Gemini