HBMとは|AI半導体を支える高帯域幅メモリの構造と市場を読む

HBMとは|AI半導体を支える高帯域幅メモリの構造と市場を読む

結論:HBM(高帯域幅メモリ)はAI向けGPUに不可欠なメモリ技術だ。NVIDIAのH100・H200・B100はHBMなしには成立しない。製造できる企業はSK hynix・Samsung・Micronの3社のみで、特にSK hynixが先行してNVIDIAへの主要サプライヤーとなっている。

目次

HBMとは何か|基本定義

HBM(High Bandwidth Memory/高帯域幅メモリ)は、複数のDRAMチップを垂直方向に積層し、TSV(シリコン貫通電極)で接続することで、従来のメモリより大幅に高いデータ転送速度を実現するメモリ技術だ。

従来のGDDR6メモリと比較すると、その差は歴然としている。

  • GDDR6:帯域幅 約672GB/s(RTX 4090搭載)
  • HBM3e:帯域幅 約1.2TB/s以上(H200搭載)

帯域幅とは「単位時間あたりにどれだけのデータを転送できるか」を示す指標だ。AIの学習・推論では膨大なデータをGPUに高速で供給する必要があり、この帯域幅がボトルネックになる。HBMはこの課題を解決するために開発された。

なぜAI時代にHBMが必要なのか

AIの計算処理、特に大規模言語モデル(LLM)の学習・推論では、GPUが膨大な量のデータ(パラメータ)を繰り返し読み書きする。このデータのやり取りの速度が、AI処理全体のスピードを決定する。

GPUの演算性能がいくら高くても、メモリからデータを供給する速度が追いつかなければ、GPUは「待ち状態」になる。これを「メモリウォール問題」と呼ぶ。

HBMはこのメモリウォール問題を解決するための技術だ。GPUチップの真横にHBMを積層して配置することで、データの移動距離を極限まで短縮し、超高速のデータ転送を実現する。NVIDIAのH100がAI処理で圧倒的な性能を発揮できる理由の一つがここにある。

HBMの技術構造|なぜ高価なのか

TSV(シリコン貫通電極)技術

HBMの核心技術はTSV(Through Silicon Via)だ。複数のDRAMチップに無数の微細な穴を開け、そこに導電材を充填することでチップ間を垂直方向に接続する。

この加工は極めて難易度が高く、製造歩留まりが低い。技術習得に数年〜10年単位の蓄積が必要なため、製造できる企業が限られる。

積層構造

HBMは複数のDRAMダイを積層する。HBM3eでは最大12層積層が可能で、積層数が増えるほど容量と帯域幅が向上する。

積層技術の難しさは「熱管理」にある。チップを重ねると発熱が集中するため、放熱設計が極めて重要になる。この熱設計の巧拙が製品の信頼性と性能を左右する。

CoWoS(先端パッケージング)との組み合わせ

HBMはGPUチップと直接接続されるが、この接続にはTSMCのCoWoS(Chip on Wafer on Substrate)という先端パッケージング技術が使われる。GPUダイとHBMを同一の基板上に並べ、シリコンインターポーザーで超短距離接続することで、超高速のデータ転送を実現する。

つまりNVIDIAのH100・H200は「NVIDIAが設計し、TSMCがGPUチップを製造し、SK hynixがHBMを製造し、TSMCがCoWoSで接続する」という複数企業の連携で成立している。AIチップは単一企業では作れない。

HBM市場の競争構造

HBMを製造できる企業は世界で3社のみだ。

企業 シェア(2024年) 特徴
SK hynix 約50% HBM3e量産でNVIDIAの主要サプライヤー。技術的に先行
Samsung 約40% 追随するも歩留まり問題で苦戦。NVIDIA認定に遅れ
Micron 約10% 後発だがHBM3eでNVIDIA認定を取得。シェア拡大中

特筆すべきはSK hynixの先行優位だ。NVIDIAのH100・H200・B100向けHBMの主要サプライヤーとして、AI特需の最大の恩恵を受けている。2024年のSK hynixの営業利益は過去最高を更新した。

HBMの世代進化

HBMは世代を重ねるごとに帯域幅・容量・電力効率が向上している。

  • HBM1(2013年):帯域幅 128GB/s。AMD初採用
  • HBM2(2016年):帯域幅 256GB/s。NVIDIAのV100に採用
  • HBM2e(2020年):帯域幅 460GB/s。A100に採用
  • HBM3(2022年):帯域幅 819GB/s。H100に採用
  • HBM3e(2024年):帯域幅 1.2TB/s超。H200・B100に採用
  • HBM4(2025年〜):帯域幅 2TB/s超を目指して開発中

世代が上がるたびに単価も上昇する。HBM3eは1スタック(チップ1組)あたり数万円〜十数万円とされており、NVIDIAのH100(価格400〜500万円)のコスト構造においてHBMが大きな割合を占める。

HBM市場の成長予測

AI投資の拡大を背景に、HBM市場は急成長している。

  • 2023年:HBM市場規模 約20億ドル
  • 2024年:約60億ドル(前年比3倍)
  • 2025年予測:約100億ドル超
  • 2028年予測:約300億ドル超(複数調査会社の予測平均)

HBM市場の成長はAIデータセンター投資と直結している。Microsoft・Google・Amazon・Metaが競って数兆円規模のAIインフラ投資を行っており、その中核にNVIDIAのGPU=HBMが位置している。この需要は少なくとも2026年まで継続するとみられている。

投資・M&A視点からのHBM評価

HBMを投資・M&A視点で評価する際の核心は「製造能力の希少性」だ。

HBMを製造できる企業は世界で3社しかなく、その製造能力は急には増やせない。TSV加工・積層技術・CoWoSとの連携という複合的な技術蓄積が必要で、新規参入は事実上不可能に近い。

SK hynixへの投資は「AI需要の成長をHBMという希少リソースを通じて取り込む」という戦略的意味を持つ。

M&Aの観点では、HBM関連の材料・製造装置・検査装置メーカーへの投資・買収が注目される。TSV加工に必要な研磨装置、積層検査装置、特殊材料などの供給企業は、HBM需要の拡大を直接享受できる立場にある。日本の半導体装置・材料企業がここで重要な役割を果たしている。

まとめ

  • HBM=複数DRAMを垂直積層した高帯域幅メモリ。AI向けGPUに不可欠
  • 製造企業:SK hynix(約50%)・Samsung(約40%)・Micron(約10%)
  • 技術の核心:TSV(シリコン貫通電極)・積層技術・CoWoSとの連携
  • 市場成長:2023年の約20億ドルから2028年に約300億ドル超へ
  • 投資評価軸:製造能力の希少性・AI需要との連動・世代進化の速度

HBMはAI時代の半導体産業における「新しいボトルネック」だ。GPUがいくら高性能でも、HBMの供給が追いつかなければAIシステムは完成しない。この希少性と需要の爆発的成長が、HBMを半導体業界で最も注目される技術の一つにしている。


👉 関連用語:

👉 関連記事:

📊 より深いM&A・投資視点の分析はnoteで公開しています
半導体業界動向マガジン(高野聖義)

🏢 半導体業界へのM&A・参入・コンサルティングをご検討の方
初回相談無料|テックメディックス総研株式会社

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

コメント

コメントする

目次