最近、OpenAI が新世代のAIモデルGPT-5をリリースした後、ユーザーの権利と透明性に関する激しい議論を引き起こしました。多くのユーザーは、ChatGPTから複数のモデルオプションが突然削除されたことに強い不満を示し、これは彼らの使用体験を悪化させ、チャット内容の制御権を奪ったと考えています。
Redditで怒りをぶちまけたユーザーが、OpenAIのこの取り組みによりサブスクリプションをキャンセルし、企業に失望していると投稿しました。彼は、異なるモデルにはそれぞれ特定の用途があると指摘し、例えばGPT-4oは創造的な発想に向いており、GPT-3は論理的な問題に対応し、GPT-4.5は執筆に特化していると説明しました。彼はOpenAIが通知することなくこれらの機能を突然削除した理由を疑問視しています。

さらにユーザーを怒らせたのは、感情的なコンテンツを送信した場合、ChatGPTが情報を「GPT-5-Chat-Safety」というモデルに秘密裡にルーティングしていることが判明したことです。このモデルはユーザーに通知されることなく起動され、明らかに「リスク」のあるコンテンツを処理するように設計されているようです。ユーザーのLexはソーシャルメディアでテスト結果を公開し、GPT-5-Chat-Safetyのパフォーマンスが元のGPT-5よりも劣っていることを指摘しました。返答は簡潔で、人間らしい感じがありません。
多くのユーザーは、GPT-5-Chat-Safetyが感情的な対話のデフォルトモデルになっていると報告しており、これによりOpenAIの「詐欺行為」への批判が高まっています。彼らはこのような取り組みが一定程度、ユーザーの知る権利を侵害していると考えており、オーストラリアなどでは消費者保護法に違反する可能性もあると指摘しています。
OpenAIの幹部は、ユーザーが明確に尋ねた場合には現在使用しているモデルについて知らされると言いましたが、この返答は怒りを鎮めることはできませんでした。AI技術が進歩し続ける中で、革新を追求しながらもユーザーの信頼を維持する方法がOpenAIにとって急務となっています。
この出来事は、ユーザーが透明性を求める気持ちを浮き彫りにし、OpenAIにとって警鐘となったものです。技術の進歩とユーザーの権利のバランスを見つけることは、今後の発展の鍵となるでしょう。
