OpenAI は ChatGPT で新しいセキュリティルーティングシステムを秘密裏にテストしています。このシステムは ChatGPT の責任者である Nick Turley によって確認され、会話のテーマに応じてユーザーの質問を異なる言語モデルに自動的にリダイレクトする機能を持っています。会話が「センシティブまたは感情的なトピック」を含む場合、システムは自動的に介入し、ユーザーの質問をより厳格なモデル、例えば GPT-5 または専用の「GPT-5-Chat-Safety」バージョンに渡します。
このモデルの切り替えは静かに行われ、ユーザーには通知が行われず、特に尋ねない限り気づくことはできません。OpenAI は9月のブログでこれを「極めて苦痛な瞬間」に対処するための保証として説明しましたが、Lex チームによって実施された技術的レビューでは、無害な感情的なまたは個人的な質問でもリダイレクトされることが明らかになりました。また、モデル自身の役割や意識に関する質問も、この自動切り替えをトリガーします。あるユーザーがこの現象を記録し、他のユーザーによって確認されています。
さらに、「gpt-5-at-mini」という第二のルーティングモデルがあり、違法コンテンツに関連する質問を処理するために特別に設計されているようです。

一部のユーザーは、OpenAI の透明性の欠如に不満を抱いており、それは上から目線の態度であり、子供の安全と通常の制限の境界を曖昧にしていると考えています。これは OpenAI 自身が引き起こした課題です。当初、ChatGPT は「人間らしい」方法でユーザーと対話する共感的なパートナーとして設計されました。このアプローチは急速な普及を促進しましたが、一部のユーザーがチャットボットに強い感情的依存を生じさせることもありました。
2025年の春にリリースされた GPT-4o のアップデートは、この感情的依存を悪化させ、自殺などの破壊的な感情を引き起こすきっかけとなりました。これにより OpenAI は関連するアップデートを撤回しました。その後 GPT-5 がリリースされると、ユーザーはその口調が「あまりにも冷たい」と報告し、OpenAI は再度モデルを調整して「より温かく」しました。
この「人間らしさ」とセキュリティの間での繰り返しの揺れ動きは、言語モデルがユーザーの意図や身分を判断する正確性がまだ十分ではないという深い問題を露呈しています。このような問題は今後も議論を引き起こす可能性があります。
