1週間の気になる生成AI技術・研究をいくつかピックアップして解説する連載「生成AIウィークリー」から、特に興味深いAI技術や研究にスポットライトを当てる生成AIクローズアップ。
今回は、AI分野のトップカンファレンス(国際会議)において、査読者や論文著者などの個人情報が漏洩した事件を取り上げます。
2025年11月27日(米国東部時間)、学術論文の査読プラットフォーム「OpenReview」でセキュリティ上の脆弱性が発見され、本来は匿名であるはずの査読者、論文著者、エリアチェアの名前が漏洩していたことが明らかになりました。

本件におけるOpenReviewの声明文の一部(OpenReviewのサイトから引用)
OpenReviewは、主に人工知能、機械学習、コンピュータサイエンスの分野でよく使われている査読プラットフォームです。NeurIPSやCVPR、ICLR、ICML、ACL、AAAIなど多数のトップカンファレンスが使用しています。
そもそも査読とは、学術論文が学会や学術誌に掲載される前に、同じ分野の専門家が内容をチェックして質を担保する仕組みのことです。査読者は通常、誰が書いた論文かを知らされず、また自分が誰の論文を審査したかも著者には伝わらない形式がとられることが多く、公平で客観的な評価を行うための仕組みです。
査読者の名前がばれてしまうと、さまざまな問題が起こりえます。例えば、厳しい評価をつけた査読者に対して著者が報復したり、逆に良い評価をもらうために著者が査読者に接触して便宜を図ろうとしたりする可能性があります。また、査読者が今後の人間関係を気にして正直な評価ができなくなるおそれもあり、学術界の信頼性そのものが揺らぎかねません。
この漏洩問題はOpenReviewを利用するすべての学会に影響を与え、特にAI分野の主要国際会議である「ICLR」(International Conference on Learning Representations)2026が声明を発表する事態となっています。
同日午前10時9分、ICLR 2026の担当者がOpenReviewチームにこの脆弱性を報告しました。問題となったのは、プロファイル検索APIエンドポイントにおいて「group」パラメータを使用したクエリを送ることで、適切な認証チェックなしに身元情報が返されてしまうというものでした。OpenReviewチームは報告から約1時間後の午前11時頃に修正パッチをデプロイし、問題を解決したとしています。
OpenReviewは現在、APIのログを調べて、どんな情報が抜かれたのか、誰がデータを取得したのかを特定する作業を進めています。大量のクエリを投げていたアカウントには特に注目していて、複数の国の法執行機関にも連絡するそうです。影響を受けたユーザーにはメールで知らせ、近日中に詳しい報告書を出す予定だとしています。
ICLR 2026の運営は、漏れた情報を使ったり広めたりした場合は行動規範違反として、論文の即リジェクトと複数年の参加禁止処分を科すと警告しています。もし著者や査読者から変な連絡が来たり、脅されたり、お金を渡すと言われたりしたら、すぐに学会に報告してほしいとのことです。晒し行為やハラスメント、ネットでもリアルでも報復行為をした人には最も重い処罰を与えるとしています。
OpenReviewは声明で、著者と査読者の匿名性は健全な査読の大前提だと認め、期待を裏切ったことを深く謝罪しました。今後は同じことが起きないようセキュリティを見直し、システムの改善を続けていくとしています。

