米上院議員が連携、データセンターの電力消費量の強制開示を要求

米国の超党派上院議員エリザベス・ウォーレンとジョシュ・ホーリーが、データセンター運営者に年次電力消費量の公開を義務付けるよう要求。AI時代のエネルギー危機に対応する動き。

超党派上院議員が異例の連携、データセンターのエネルギーブラックボックスに切り込む

人工知能ブームが世界を席巻する中、米国連邦議会上院議員のエリザベス・ウォーレン(Elizabeth Warren)とジョシュ・ホーリー(Josh Hawley)は2026年3月26日木曜日午前、エネルギー情報局(Energy Information Administration, EIA)に連名で書簡を送り、データセンターに年次電力消費データの強制開示を求めた。この超党派の行動はワシントンでよく見られる党派対立を打ち破り、テクノロジー大手のデータセンター背後にあるエネルギーのブラックボックス問題に切り込んだ。

「我々はEIAに対し、すべてのデータセンター運営者に年次電力消費状況を公開するよう強制する措置を直ちに講じることを求める。」——ウォーレンとホーリーの連名書簡より抜粋

書簡の中で、両議員はデータセンターの電力需要が驚くべき速度で増加している一方、透明性が欠如していることを強調した。国際エネルギー機関(IEA)のデータによると、2024年の世界のデータセンター電力消費はすでに460TWhに達し、日本の全国電力使用量に相当する。2030年までに、この数字は3倍になる可能性があり、世界の総電力量の8%-10%を占めることになる。米国では、Amazon、Microsoft、Google、Metaなどの大手企業のデータセンターがすでにエネルギー消費大口需要家となっており、一部の施設の1日の電力使用量は中規模都市に相当する。

AIブーム下でのエネルギー危機

人工知能の急速な発展は、データセンターのエネルギー消費急増の主な推進力となっている。GPT-4やLlamaシリーズのような大規模言語モデルの訓練には、数百万GPU時間の計算リソースが必要で、すべてのワットの電力が大量の熱と炭素排出に変換される。OpenAIのChatGPTを例に取ると、そのバックエンドデータセンターが1日に消費する電力は数万世帯分に相当する。Microsoft AzureやAmazon AWSなどのクラウドサービスプロバイダーの報告書によると、AIワークロードはすでにデータセンター総エネルギー消費の30%以上を占めている。

業界の背景として、データセンターのエネルギー消費問題は長年存在していたが、AI時代の到来が危機を加速させた。従来のインターネットデータセンターは主にウェブブラウジングとストレージにサービスを提供していたが、AIデータセンターは高密度GPUクラスターを必要とし、電力密度がラックあたり数キロワットから数十キロワットに急上昇した。冷却システムも同様にエネルギーを大量消費し、多くの施設が水冷または液冷技術を採用し、水使用量をさらに押し上げている。例えば、Googleの2023年のデータによると、同社のデータセンターの水使用量は50億ガロンに達し、ロサンゼルスの1年間の水供給量に相当する。

さらに、地政学的要因がエネルギーへの懸念を悪化させている。米国の「インフレ削減法」(IRA)はクリーンエネルギー補助金を提供しているが、データセンターの多くは化石燃料電力網に依存している。Microsoftは2030年までにカーボンニュートラルを実現することを約束していたが、AI拡張のため目標を延期した。EUはすでに先行しており、「EU データ法」は大手テクノロジー企業にエネルギー消費データの開示を要求しており、米国議会のこの動きはより厳格な規制を予示している可能性がある。

ウォーレンとホーリーの政治的思惑

民主党進歩派のリーダーであるエリザベス・ウォーレンは、テクノロジー独占との戦いで知られている。彼女は反トラスト調査を主導してきており、今回の行動は大手テクノロジー企業への警戒を継続するものだ。一方、ジョシュ・ホーリーは共和党保守派で、国家安全保障を優先し、シリコンバレーの「覚醒主義」をしばしば批判している。両者の異例の連携は、データセンターのエネルギー消費がすでに両党の共通認識となっていることを反映している:ウォーレンは気候正義に関心を持ち、ホーリーは電力網の安定性とエネルギー独立を懸念している。

書簡はEIAに対し、既存の「連邦電力法」の権限を利用して、データセンターの場所、電力源、カーボンフットプリントを含む年次報告メカニズムを策定することを要求している。独立統計機関としてのEIAのデータは、潜在的な炭素税やエネルギー効率基準など、議会の立法の根拠となる。

編集者注:透明性はAIの持続可能な発展の鍵

AIテクノロジーニュース編集者として、我々はこの要求が単にエネルギー透明化の勝利であるだけでなく、AI業界が持続可能性に向かうマイルストーンであると考えている。現在、NVIDIA H100などのAIチップの消費電力は700Wにも達し、将来のBlackwellアーキテクチャはさらに高くなるだろう。強制開示がなければ、テクノロジー大手はエネルギー消費を過小報告し続け、グリーン移行を遅らせる可能性がある。業界への提案:核融合小型炉や再生可能エネルギーをデータセンターに直接接続する投資を行うこと、GoogleとKairos Powerの協力のように。同時に、スパースモデルや量子化技術などのAI最適化アルゴリズムは、エネルギー消費を20%-50%削減できる。

将来を展望すると、この書簡は連鎖反応を引き起こし、世界のデータセンターのエネルギー効率革命を推進する可能性がある。中国のHuaweiやAlibaba CloudはすでにPUE(電力使用効率)でリードしており、PUEを1.1以下に下げている。米国企業はこれに追いつくべきだ。最終的に、AIイノベーションと地球の許容能力のバランスを取ることこそが正しい道である。

(本文約1050字)

本稿はWIREDより編集、著者:Molly Taft、原文日付:2026-03-26。