生成AI・機械学習の学習・推論プロセスが消費する電力の実態と、電力効率化の技術動向を整理します。
大規模言語モデル(LLM)の学習には1回あたり数GWh〜数十GWhの電力が必要で、数万台のGPUを数週間〜数ヶ月稼働させます。
一方、推論(実際の利用)は1クエリあたり数Wh程度ですが、利用規模が大きくなると学習の数倍の累積消費になります。
実用段階でのエネルギー管理は推論の効率化が中心課題です。
最新のAI向けGPU(H100、B200等)は単体で700W〜1,000W超、1ラックで30〜50kW、大型データセンターでは1拠点で数十MW規模の電力契約が必要です。
従来のサーバーラック(5〜10kW)の5〜10倍の電力密度となり、冷却設計も根本的に見直しが必要です。
モデル圧縮(量子化・蒸留)、推論専用チップ、液冷・浸漬冷却、動的負荷分散、再エネ地域への移設など、複数アプローチが並行で進んでいます。
このテーマの理解を深めたら、シミュレーターで自社の電気料金リスクを確認しましょう。