ICLR 2026 の査読システムはAI「ゴースト」に大規模に浸透している:第三者の検出によると、7万6千件の査定意見のうち21%は完全に大規模言語モデルによって一括生成されており、さらに35%はAIによって不同程度に編集されている。純粋な人間による作成の割合はわずか43%である。これらの「機械評価」は平均して長く、点数も高いが、「幻覚引用(ホログラム引用)」や論文には存在しない数値的な誤りを指摘するなど、頻繁に問題を引き起こしており、著者たちはSNSで不満を述べている。

信頼の崩壊に対応するために、主催者は「史上最厳格」という封殺令を発表した:

- 投稿側:論文でLLMを大量に使用したにもかかわらず声明していない場合、直接的にdesk rejectとなる;

- 査読側:AIを補助的に使用することは許可されているが、査読者が内容に対して全責任を負う必要があり、偽の引用や「AIの無駄話」が含まれている場合、その本人の投稿も拒否される可能性がある;

- 通報ルート:著者はプライベートメッセージで疑いのあるAIによる査読をマークできる。プログラム委員長は今後2週間以内に集中して調査を行い、結果を公開する。

会議の主席は率直に、AI分野の指数関数的な拡大により、各査読者は2週間で5本の論文を審査しなければならず、負担はこれまで以上に大きくなっていると述べた。これは「AI代筆」が広まっている構造的要因である。ICLR 2026のこの「AI査読危機」は、大規模モデルが査読者になる時代において、学術共同体がまず規則と検出ツールを使って「幽霊票(ゴースト投票)」を排除しなければならないことを示している。そうでなければ、同僚レビューは誰も責任を持たない自動化実験になってしまう。