2026年3月25日、AnthropicのClaude Codeは今日、Auto Modeモードを正式にリリースしました。このアップグレードにより、Claudeはコード操作の安全性を自主的に判断できるようになりました。安全な操作は直接実行され、リスクのある操作は自動でブロックされ、ユーザーの意見を尋ねるようになります。これにより、従来の「すべてのステップで手動確認が必要だった」面倒な体験や「危険な運転モード」が完全に解消されました。

Auto Modeは単純な「すべて許可」ではない これまでユーザーが一つずつ承認する必要があった保守的なモードとは異なり、Auto ModeではClaudeが各操作を実行しようとするたびに、専用の分類器モデルによる厳格な審査が行われます。この分類器は潜在的なリスクをリアルタイムで評価し、AIが効率よく実行しながらも安全な境界を保つことを確保します。

4つの主要なリスクを自動ブロック 分類器は以下の4つの高リスク行動を重点的にスキャンします:

大規模なファイル削除

機密データの漏洩

悪意のあるコードの実行

プロンプトインジェクション攻撃(つまり、AIが処理している内容の中に悪意のある指示が隠されていること)

優先順位の決定ロジックは明確で効率的 システムは階層的な意思決定メカニズムを採用しています:

まず、明確なブロックルール(soft_deny)が存在するかをチェックします;

次に、明確な許可ルール(allow)があるかどうかを確認します;

最後に、ユーザーの意図が十分に明確であるかを評価します。

もしClaudeが複数回ブロックされる操作を試みた場合、システムは自動でウィンドウを表示してユーザーの介入を促し、最終的なコントロール権が常にユーザーに握られていることを確保します。

今回のAuto Modeのリリースにより、Claude Codeはコードエージェント分野において再び画期的な進展を遂げました。開発者は業務ロジックに集中でき、セキュリティ確認の工程で多くの精力を費やす必要がなくなります。AIbaseはこのモードのリリース後の実際のパフォーマンスを継続的に注視し、すぐにさらなる詳細なレビューを提供する予定です。