OpenAIは10月29日にChatGPTの利用ポリシーを正式に更新し、モデルが専門的な医療、法務、または財務のアドバイスを提供することを明確に禁止しました。この措置は規制リスクを回避し、誤解の危険を低減し、AIが高リスク分野で使用される境界を再定義するためです。新規則の核心的内容には、医学画像の解釈や補助診断、法律契約の作成または説明、パーソナライズされた投資戦略や税務計画の提供が含まれます。

ChatGPT

ユーザーがこのような要請を行う場合、システムはすべての人間の専門家への相談を促す一貫した返答を行います。ポリシーはChatGPTのすべてのモデルおよびAPIインターフェースをカバーし、実行の一貫性を確保します。プロフェッショナルな用途は、一般的な概念的な議論やデータ整理には引き続き使用可能ですが、「委任性」のアドバイスをエンドユーザーに直接出力することはできません。この調整は、グローバルな規制の動向によって導かれています。EUの「人工知能法案」が近日中に施行され、高リスクAIが厳格な審査対象となる予定です。米国のFDAは診断用AIツールに対して臨床検証を要求しています。OpenAIは、「ソフトウェアとしての医療機器」とみなされないことを避け、潜在的な訴訟を防止するためにこの措置を取ったと考えられます。業界関係者は、これはEUの罰金(最大GDPの6%)と米国の法律リスクに対する主動的な対応であると見ています。

ユーザーの反応は二極化しています。一部の個人ユーザーは、「コスト効果の高いコンサルティング」の手段を失ったことに残念がっています。以前はAIを活用して専門費用を節約していたと述べています。一方、医療および法務業界では広く支持されており、AIによる「偽の専門的」な出力を避けるべきだと考えています。データによると、40%以上のChatGPTの質問はアドバイスに関するものであり、そのうち医療と財務は約30%を占めています。このポリシーにより、短期的にはアクセス数が減少する可能性があります。業界への影響は非常に大きいです。GoogleやAnthropicなどの企業も同様の制限を導入する可能性があります。認証済みの法律・医療モデルなどの垂直AIツールが登場するでしょう。中国企業の百度はすでに合規を先取りしており、国内の規制が厳しくなる中で、イノベーションは「砂箱」メカニズムの中で探求される必要があります。

OpenAIは、目標は「イノベーションと安全性のバランス」であると強調しています。この更新はModel Specフレームワークを継続し、2025年2月にさらに進化する予定です。AIは「万能のアシスタント」から「限定的なアシスタント」へと転換することが業界の共通認識となっています。今後、技術革新と倫理的制約が並行して進むことが予想され、GPT-5の時代には新たなバランスが生まれるでしょう。