最近、OpenAI は有料ユーザーに対して大きな物議を醸し出しました。これは、ユーザーに通知することなく、高機能モデルであるGPT-4とGPT-5を、低性能の「秘密モデル」であるgpt-5-chat-safetyとgpt-5-a-t-miniに切り替えたためです。ユーザーからのフィードバックによると、感情や敏感な話題、または潜在的な規則違反に関する入力がある場合、システムが自動的にこれらのフィルタリングモデルに切り替わり、返答の質が著しく低下しているとのことです。この行動により、多くのユーザーが自身の権利や選択肢について疑問を抱くようになりました。

知られているように、OpenAI はモデルを切り替える際、ユーザーに事前に通知していません。OpenAI側は、これは安全テストのためであると説明していますが、多くのユーザーはこの対応に強く不満を示しており、自分の知識の権利や使用権が侵害されていると考えています。ユーザーたちは、特定の高機能モデルに対して支払いを行った際には、それに応じたサービスを利用できるはずだと述べています。しかし、裏で勝手に性能を落とされていることには不満を感じています。
この出来事は、人工知能業界においてユーザーの選択権や知る権利の重要性を浮き彫りにしています。ますます多くのユーザーが、アルゴリズムの制御、モデルの切り替え、リソースの配分などに関する曖昧なポリシーに懸念を抱くようになり、このような取り組みがユーザー体験に悪影響を及ぼすだけでなく、ブランドへの信頼度の低下につながる可能性があると感じています。
