注目を集めるマスク対OpenAI訴訟の初週公判で、イーロン・マスク氏はパリッとした黒いスーツに身を包んで出廷し、OpenAIのCEOであるサム・アルトマン氏と社長のグレッグ・ブロックマン氏が欺瞞的手段によって自分から同社への資金提供を引き出したと告発した。マスク氏は、当初気前よく資金を提供したのは、アルトマン氏とブロックマン氏がOpenAIをオープンソースかつ非営利の性質を保ち、汎用人工知能(AGI)の安全な開発に専念して人類に貢献すると約束したからだと主張した。
証言の要:騙された「最大の寄付者」
マスク氏は法廷で感情を昂らせながら次のように述べた。「私はOpenAIの最大の寄付者の一人であり、数千万ドルを投じた。しかし、会社は永遠に透明かつオープンであり続けると言われていた。それなのに、彼らは秘密裏にマイクロソフトと契約を結び、技術を商業化し、当初の理念から完全に逸脱した」。彼は証拠として複数の内部メールを提示し、その中でアルトマン氏は「我々が決してマイクロソフトの子会社になることはない」と約束していた。しかし実際の展開としては、OpenAIは2019年に「制限付き営利」モデルに転換し、2023年にはマイクロソフトと深く結びつき、有料製品のChatGPT PlusとGPT-4をリリースした。
「もし彼らが最終的に利益のために原則を売り渡すと知っていたら、私は一銭たりとも寄付しなかっただろう」――マスク氏が法廷で自身の告発から引用
一方、アルトマン氏の弁護団は、非営利モデルでは膨大な計算コストを賄えないためOpenAIの転換は必要だったと反論し、さらにマスク氏自身がOpenAIをテスラに統合しようと試みたが同意を得られなかったと主張した。双方の主張が真っ向から対立し、公判は火花を散らす展開となった。
AIによる人類滅亡の警告とxAIの「蒸留」秘密
公判でマスク氏はさらに重大な警告を発した。AIが制約を受けずに発展すれば、それは「我々全員を滅ぼす」可能性があるという。彼はOpenAI内部から流出した文書を引用し、GPT-5の一部の能力はすでに「超人類的知能」に近づいているのに、安全性テストの優先順位は下げられていると述べた。同時にマスク氏は、自身が創設したxAI社が確かにOpenAIのモデルを「蒸留」したこと――つまり大量のGPT-4出力データを入力して自社モデルGrokを訓練したこと――を認めた。しかし彼は、これは業界における一般的な慣行であると弁明し、xAIは安全性確保のためモデルのパラメータ規模を大幅に削減していると強調した。
この告白は大きな波紋を呼んだ。専門家らは、蒸留は一般的ではあるが、商業利用に関わる場合は著作権侵害や利用規約違反となる可能性があると指摘している。OpenAIの弁護団は直ちに動議を提出し、xAIがOpenAIのモデル出力を引き続き使用することを禁止するよう法廷に求めた。業界アナリストは、この訴訟がAI訓練データの合法性に関する判例を作る可能性があると見ている。
編集後記:AIの未来をめぐる裁判
この訴訟は単なる億万長者同士の個人的な恨みをはるかに超えるものである。これはAI業界の最も中核的な3つの矛盾――オープンソースか閉鎖型か、非営利か営利か、安全性か能力か――に触れている。かつてOpenAIの共同創設者だったマスク氏が、今や最も激しい批判者となっていること自体が、AI発展の道筋における深い分断を反映している。マスク氏が勝訴すれば、OpenAIはより多くの技術的詳細をオープンソース化することを余儀なくされ、株式構造の再編すら迫られるかもしれない。敗訴すれば、業界大手によるAIリソースの独占を加速させる可能性がある。
注目すべきは、マスク氏が公判で繰り返し「AIの安全性」を強調する一方で、自身が創設したxAIも同様に急速な反復開発を進めており、Grokモデルが極端な発言を出力したことで疑問を呈されたことがある点だ。この「ダブルスタンダード」は彼の立場を複雑なものにしている。最終判決(2026年末予定)は、世界のAI規制の枠組みを再構築し、次世代のAI倫理基準の確立にも影響を及ぼす可能性がある。
本記事はMIT Technology Reviewから翻訳・編集したものである。
© 2026 Winzheng.com 赢政天下 | 转载请注明来源并附原文链接