結論:HBM(高帯域幅メモリ)はAI向けGPUに不可欠なメモリ技術だ。NVIDIAのH100・H200・B100はHBMなしには成立しない。製造できる企業はSK hynix・Samsung・Micronの3社のみで、特にSK hynixが先行してNVIDIAへの主要サプライヤーとなっている。
HBMとは何か|基本定義
HBM(High Bandwidth Memory/高帯域幅メモリ)は、複数のDRAMチップを垂直方向に積層し、TSV(シリコン貫通電極)で接続することで、従来のメモリより大幅に高いデータ転送速度を実現するメモリ技術だ。
従来のGDDR6メモリと比較すると、その差は歴然としている。
- GDDR6:帯域幅 約672GB/s(RTX 4090搭載)
- HBM3e:帯域幅 約1.2TB/s以上(H200搭載)
帯域幅とは「単位時間あたりにどれだけのデータを転送できるか」を示す指標だ。AIの学習・推論では膨大なデータをGPUに高速で供給する必要があり、この帯域幅がボトルネックになる。HBMはこの課題を解決するために開発された。
なぜAI時代にHBMが必要なのか
AIの計算処理、特に大規模言語モデル(LLM)の学習・推論では、GPUが膨大な量のデータ(パラメータ)を繰り返し読み書きする。このデータのやり取りの速度が、AI処理全体のスピードを決定する。
GPUの演算性能がいくら高くても、メモリからデータを供給する速度が追いつかなければ、GPUは「待ち状態」になる。これを「メモリウォール問題」と呼ぶ。
HBMはこのメモリウォール問題を解決するための技術だ。GPUチップの真横にHBMを積層して配置することで、データの移動距離を極限まで短縮し、超高速のデータ転送を実現する。NVIDIAのH100がAI処理で圧倒的な性能を発揮できる理由の一つがここにある。
HBMの技術構造|なぜ高価なのか
TSV(シリコン貫通電極)技術
HBMの核心技術はTSV(Through Silicon Via)だ。複数のDRAMチップに無数の微細な穴を開け、そこに導電材を充填することでチップ間を垂直方向に接続する。
この加工は極めて難易度が高く、製造歩留まりが低い。技術習得に数年〜10年単位の蓄積が必要なため、製造できる企業が限られる。
積層構造
HBMは複数のDRAMダイを積層する。HBM3eでは最大12層積層が可能で、積層数が増えるほど容量と帯域幅が向上する。
積層技術の難しさは「熱管理」にある。チップを重ねると発熱が集中するため、放熱設計が極めて重要になる。この熱設計の巧拙が製品の信頼性と性能を左右する。
CoWoS(先端パッケージング)との組み合わせ
HBMはGPUチップと直接接続されるが、この接続にはTSMCのCoWoS(Chip on Wafer on Substrate)という先端パッケージング技術が使われる。GPUダイとHBMを同一の基板上に並べ、シリコンインターポーザーで超短距離接続することで、超高速のデータ転送を実現する。
つまりNVIDIAのH100・H200は「NVIDIAが設計し、TSMCがGPUチップを製造し、SK hynixがHBMを製造し、TSMCがCoWoSで接続する」という複数企業の連携で成立している。AIチップは単一企業では作れない。
HBM市場の競争構造
HBMを製造できる企業は世界で3社のみだ。
| 企業 | シェア(2024年) | 特徴 |
|---|---|---|
| SK hynix | 約50% | HBM3e量産でNVIDIAの主要サプライヤー。技術的に先行 |
| Samsung | 約40% | 追随するも歩留まり問題で苦戦。NVIDIA認定に遅れ |
| Micron | 約10% | 後発だがHBM3eでNVIDIA認定を取得。シェア拡大中 |
特筆すべきはSK hynixの先行優位だ。NVIDIAのH100・H200・B100向けHBMの主要サプライヤーとして、AI特需の最大の恩恵を受けている。2024年のSK hynixの営業利益は過去最高を更新した。
HBMの世代進化
HBMは世代を重ねるごとに帯域幅・容量・電力効率が向上している。
- HBM1(2013年):帯域幅 128GB/s。AMD初採用
- HBM2(2016年):帯域幅 256GB/s。NVIDIAのV100に採用
- HBM2e(2020年):帯域幅 460GB/s。A100に採用
- HBM3(2022年):帯域幅 819GB/s。H100に採用
- HBM3e(2024年):帯域幅 1.2TB/s超。H200・B100に採用
- HBM4(2025年〜):帯域幅 2TB/s超を目指して開発中
世代が上がるたびに単価も上昇する。HBM3eは1スタック(チップ1組)あたり数万円〜十数万円とされており、NVIDIAのH100(価格400〜500万円)のコスト構造においてHBMが大きな割合を占める。
HBM市場の成長予測
AI投資の拡大を背景に、HBM市場は急成長している。
- 2023年:HBM市場規模 約20億ドル
- 2024年:約60億ドル(前年比3倍)
- 2025年予測:約100億ドル超
- 2028年予測:約300億ドル超(複数調査会社の予測平均)
HBM市場の成長はAIデータセンター投資と直結している。Microsoft・Google・Amazon・Metaが競って数兆円規模のAIインフラ投資を行っており、その中核にNVIDIAのGPU=HBMが位置している。この需要は少なくとも2026年まで継続するとみられている。
投資・M&A視点からのHBM評価
HBMを投資・M&A視点で評価する際の核心は「製造能力の希少性」だ。
HBMを製造できる企業は世界で3社しかなく、その製造能力は急には増やせない。TSV加工・積層技術・CoWoSとの連携という複合的な技術蓄積が必要で、新規参入は事実上不可能に近い。
SK hynixへの投資は「AI需要の成長をHBMという希少リソースを通じて取り込む」という戦略的意味を持つ。
M&Aの観点では、HBM関連の材料・製造装置・検査装置メーカーへの投資・買収が注目される。TSV加工に必要な研磨装置、積層検査装置、特殊材料などの供給企業は、HBM需要の拡大を直接享受できる立場にある。日本の半導体装置・材料企業がここで重要な役割を果たしている。
まとめ
- HBM=複数DRAMを垂直積層した高帯域幅メモリ。AI向けGPUに不可欠
- 製造企業:SK hynix(約50%)・Samsung(約40%)・Micron(約10%)
- 技術の核心:TSV(シリコン貫通電極)・積層技術・CoWoSとの連携
- 市場成長:2023年の約20億ドルから2028年に約300億ドル超へ
- 投資評価軸:製造能力の希少性・AI需要との連動・世代進化の速度
HBMはAI時代の半導体産業における「新しいボトルネック」だ。GPUがいくら高性能でも、HBMの供給が追いつかなければAIシステムは完成しない。この希少性と需要の爆発的成長が、HBMを半導体業界で最も注目される技術の一つにしている。
👉 関連用語:
👉 関連記事:
📊 より深いM&A・投資視点の分析はnoteで公開しています
→ 半導体業界動向マガジン(高野聖義)
🏢 半導体業界へのM&A・参入・コンサルティングをご検討の方
→ 初回相談無料|テックメディックス総研株式会社

コメント