イーロン・マスク氏は木曜日、xAIが独自のAIモデルを強化する過程で、部分的にOpenAIのモデルを利用したことを認めました。この強化プロセスは「Distilling」、日本語で「蒸留(知識抽出)」と呼ばれます。
マスク氏は現在、OpenAIを当初の非営利団体という使命に背いて、営利組織に転換させてとして、OpenAIとそのCEOサム・アルトマン氏および社長のグレッグ・ブロックマン氏を提訴しています。
木曜日に証言台に立ったマスク氏は、OpenAI側の弁護士からの反対尋問で、xAIがGrokを訓練するためにOpenAIのモデルに対して蒸留技術を使用したかどうかを問われ、「一般的に、すべてのAI企業が(そうしている)」と述べました。さらに弁護士から「それはイエスと言う意味か」と詰められたマスク氏は、「一部はそうだ」と認める発言をしました。
蒸留とは、規模の小さなAIモデルを、より大規模かつ高性能なモデルの挙動を模倣するように訓練する技術のことで、低コストでAIモデルの能力を向上させられるのが大きな利点です。ただ、それは大手AI企業が巨費を投じて独自のAIモデルを開発してきた優位性を損なう行為でもあります。
昨年、中国のAIスタートアップDeepSeekは、同社のAIモデル「R1」が大手AI企業のモデルに匹敵する性能を備える一方で、訓練にはわずか29.4万ドルしかかからなかったと主張しました。そして、同社が低コストでOpenAIやAnthropicなどに迫る性能を持つモデルを開発したことに対してOpenAIは、今年初めにDeepSeekがOpenAIの技術を利用してオープンソースモデルを訓練したと非難しました。
Anthropicも、DeepSeekやMoonshot AI、MiniMaxといった他の中国企業に対し、同社のAIモデル「Claude」を利用して自社モデルを強化しようとする「産業規模のキャンペーン」を展開していると非難し、上記3社がAnthropicのClaudeモデルに対して、1.4万件もの不正アカウントを通じて1600万回ものやりとりを行ったことを特定し、利用規約違反だと主張しました。
マスク氏の発言からは、後発のAI企業(xAIは2023年設立)が、業界の先頭を走る企業の製品に蒸留技術を用いて自社のモデルを学習させることは、もはや驚くことではないようです。
しかし、Anthropicは蒸留技術は国家安全保障上のリスクをもたらすと指摘しており、今年初めの声明の中で、蒸留されたAIモデルには、悪意のある者が生物兵器を作成したりサイバー攻撃を実行したりするのを防ぐために設けられたような安全対策が欠落している可能性があると述べています。
ちなみに、OpenAI、Anthropic、GoogleらAI大手各社は、中国からの知識抽出の試みに対抗する方法に関し、2023年に共同設立したFrontier Model Forumを通じて情報共有を開始したと報じられています。






