液冷方式データセンターとは|AI・2nmチップ時代の冷却インフラの構造と市場

結論:液冷方式データセンターとは、従来の空気冷却に代わり液体(水・冷却液)でサーバーを冷却するデータセンターインフラだ。AIを動かすGPUサーバーの消費電力・発熱量が急増する中、従来の空冷では対応できなくなっており、液冷化が不可欠なトレンドになっている。NTTドコモ・NTTデータ・富士通などが液冷データセンターの整備を加速しており、半導体設計・AI推論・HPC(高性能計算)の計算基盤として重要性が増している。

目次

液冷方式データセンターとは何か|基本定義

データセンターの冷却方式は大きく「空冷(Air Cooling)」と「液冷(Liquid Cooling)」に分類される。

従来の空冷方式

冷却された空気を床下・天井からサーバーに送り込み、発熱を冷却する方式だ。設備コストが低く、長年の標準技術として普及している。ただし以下の限界がある。

  • 空気の熱容量は液体より約3,000分の1程度と低く、高密度の発熱を冷やしきれない
  • 冷却効率が低いためPUE(電力使用効率)が悪化する
  • NVIDIAのH100・H200(消費電力700W超)のような高発熱GPUには対応困難

液冷方式

液体(純水・フッ素系冷媒等)をサーバー・チップに直接接触させるか、サーバーを冷却板に密着させて熱を液体に移す方式だ。

  • 直接液冷(Direct Liquid Cooling):CPUやGPUに冷却板を直接取り付けて液体で冷却
  • 液浸冷却(Immersion Cooling):サーバー全体を絶縁性の液体に浸して冷却
  • リアドア液冷:サーバーラックのリアドアを冷却ユニットにする方式

液冷方式の最大の優位性は「熱容量の高さ」だ。液体は空気の数千倍の熱容量を持つため、同じ冷却設備で格段に多くの熱を処理できる。NVIDIAの最新GPU(Blackwellシリーズ)は1ラックあたりの消費電力が100kWを超えており、これを空冷で処理することは事実上不可能だ。

AIがデータセンター冷却を変えた

ChatGPTの登場以降、AIサービスの需要が爆発的に増加し、データセンターの電力・冷却需要が急変している。

  • 2022年以前:一般的なサーバーラックの消費電力は5〜20kW程度
  • 2023〜2024年:NVIDIA H100搭載ラックで30〜50kW
  • 2025〜2026年:NVIDIA Blackwell(B200)搭載ラックで100kW超

この消費電力の急増が液冷への移行を「選択肢」から「必須」に変えた。GoogleのデータセンターもMeta・Microsoftのハイパースケール施設も、AI向け区画では液冷が標準になりつつある。

Rapidus×NTTドコモの連携(2026年4月27日発表)が「液冷方式データセンターを活用した2nmチップ設計支援」を打ち出した背景がここにある。2nmチップの設計シミュレーションには膨大なGPU計算資源が必要で、液冷データセンターなしには高密度なGPUクラスターを安定稼働させることができない。

半導体設計との関係

液冷データセンターは半導体産業に以下の形で関与する。

① チップ設計・シミュレーションの計算基盤

EDA(設計自動化)ツールを使った2nmチップの設計には、数千〜数万コアのGPU計算が必要だ。この高密度GPU計算を支える液冷インフラが「設計期間の短縮」に直結する。

② AI推論インフラの効率化

ChatGPT・Gemini等のAIサービスの推論処理を担うGPUサーバーの冷却効率向上が、AIサービスの運用コスト削減につながる。液冷化によるPUE改善がデータセンター運営コストを大幅に削減する。

③ チップのパッケージング・テスト環境

最先端チップの量産テスト(アドバンテストのテスタ等)も高消費電力であり、テスト設備の液冷化が進んでいる。

日本企業の動向

  • NTTドコモ:Rapidusとの連携で液冷データセンターをチップ設計支援に活用
  • NTTデータ:液冷型超大規模データセンターの整備を推進
  • 富士通:液冷サーバー・データセンター設計で先進的な取り組み
  • 日立製作所:HMAX Industry向けエッジAI処理と液冷インフラの連携

液冷に関連する半導体・部品需要

液冷データセンターの拡大は以下の半導体・部品需要を生む。

  • 高帯域幅メモリ(HBM):液冷GPUサーバーの主役。SK hynix・Samsung・Micronが供給
  • AI向けGPU:NVIDIA Blackwell・AMD MI300X
  • ネットワーク半導体:GPUサーバー間の超高速接続に使うInfiniband・Ethernetチップ
  • 電力管理半導体(PMIC):高密度サーバーの電力変換・管理

投資・M&A視点からの評価

液冷データセンターを投資・M&A視点で評価する際の核心は「AIインフラ投資の増加が液冷設備・液冷対応チップへの需要を構造的に押し上げる」という連動関係だ。

M&Aの観点では、液冷システムメーカー(Vertiv・Schneider Electric等)への注目が高まっている。半導体メーカーからの視点では、液冷前提で設計された高密度GPUの需要増がHBM・AI GPU・ネットワーク半導体の成長を後押しする構造が続く。GAFA4社の116兆円という設備投資の相当部分が液冷化対応インフラに向かっている。

まとめ

  • 液冷方式データセンター=液体でサーバーを冷却するインフラ。AIの高発熱GPU対応に必須
  • NVIDIAのBlackwellは1ラック100kW超の消費電力。空冷では物理的に対応不可
  • Rapidus×NTTドコモが液冷データセンターを2nmチップ設計支援に活用
  • 日本ではNTTドコモ・NTTデータ・富士通・日立が整備を加速
  • 投資評価軸:AI設備投資増→液冷インフラ需要増→HBM・GPU・ネットワーク半導体需要増の連動

👉 関連用語:

👉 関連記事:

📊 より深いM&A・投資視点の分析はnoteで公開しています
半導体業界動向マガジン(高野聖義)

🏢 半導体業界へのM&A・参入・コンサルティングをご検討の方
初回相談無料|テックメディックス総研株式会社

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

コメント

コメントする

目次