Skip to content

Split View: AI 메모리 슈퍼사이클의 정점: 2026년 반도체 시장을 뒤흔들 HBM의 5가지 결정적 모멘텀

✨ Learn with Quiz
|

AI 메모리 슈퍼사이클의 정점: 2026년 반도체 시장을 뒤흔들 HBM의 5가지 결정적 모멘텀


도입부: '메모리 벽(Memory Wall)'에 부딪힌 AI, 구원투수로 등장한 HBM

"The memory wall is the single greatest bottleneck in the history of computing." — Wm. A. Wulf & Sally A. McKee, "Hitting the Memory Wall" (1995)

1995년, 버지니아 대학교의 Wulf 교수와 McKee 교수는 프로세서 성능과 메모리 대역폭 사이의 격차가 컴퓨팅의 미래를 위협할 것이라 경고했다. 30년이 지난 2026년, 이 예언은 AI 시대의 가장 뼈아픈 현실이 되었다.

연산 능력 vs 메모리 대역폭: 30년간의 괴리

지난 20년간 컴퓨팅 성능은 약 10,000배 향상된 반면, 메모리 대역폭은 겨우 10배 증가하는 데 그쳤다. TrendForce에 따르면, 서버 하드웨어의 peak FLOPS는 2년마다 3.0배 스케일링되는 반면, DRAM 대역폭은 1.6배, 인터커넥트 대역폭은 1.4배에 불과하다. 이 구조적 불균형은 AI 워크로드가 본질적으로 메모리 대역폭 제한(memory-bandwidth-limited) 워크로드임을 의미한다.

[메모리 (Memory Wall) 개념도]

Performance
    ^
    |GPU Compute (FLOPS)
    |    /    ~3.0x / 2    |   /
    |  /Memory Bandwidth
    | /          /    ~1.6x / 2    |/          /
    |----------/----------Time
    |         /
    |        /   ← 이 갭이 "Memory Wall"
    |       /
    |------/
    |
    +--------------------------------Year
    2000      2010      2020      2026

조(兆) 단위 파라미터 시대의 도래

2026년 현재, AI 모델의 파라미터 수는 이미 수조(Trillion) 단위를 넘어서고 있다. GPT-4급 모델들은 1조 이상의 파라미터를 가지며, 차세대 모델들은 10조 파라미터를 향해 치닫고 있다. 모델 하나를 메모리에 올리는 것만으로도 수십~수백 GB의 HBM이 필요하고, 학습(Training)과 추론(Inference) 과정에서 이 메모리를 초당 수 TB 속도로 읽고 써야 한다.

NVIDIA Vera Rubin: HBM4의 첫 번째 대규모 소비처

NVIDIA는 2026년 CES에서 차세대 AI 플랫폼 Vera Rubin을 공개했다. TSMC 3nm 공정으로 제작되는 Rubin GPU는 3,360억 개 트랜지스터를 집적하며, NVFP4 추론 기준 50 PFLOPS를 달성한다. 핵심은 메모리다. 각 Rubin GPU는 8개의 HBM4 스택을 탑재해 총 288GB 용량과 약 13 TB/s 이상의 메모리 대역폭을 제공한다. 이는 Blackwell 대비 메모리 대역폭이 약 3배 증가한 수치다.

Vera Rubin NVL72 랙 시스템은 72개의 Rubin GPU와 36개의 Vera CPU를 하나의 통합 컴퓨팅 패브릭으로 운영하며, NVL144 풀 랙 구성에서는 무려 20,736 TB의 HBM4 메모리를 탑재한다.

항목Blackwell B200Rubin변화
공정TSMC 4nmTSMC 3nm1세대 미세화
트랜지스터2,080억 개3,360억 개+61.5%
NVFP4 추론10 PFLOPS50 PFLOPS5x
NVFP4 학습10 PFLOPS35 PFLOPS3.5x
HBM 세대HBM3EHBM41세대 진화
GPU당 HBM 용량192 GB288 GB+50%
메모리 대역폭~8 TB/s~13 TB/s+62.5%

1조 달러 반도체 시장의 심장부

2026년, 글로벌 반도체 시장은 사상 최초로 1조 달러(약 $975B~$1T) 돌파가 확실시된다. Omdia의 분석에 따르면, 컴퓨팅 및 데이터 스토리지 부문이 전년 대비 41.4% 성장하며 5,000억 달러를 돌파할 전망이다. SIA(Semiconductor Industry Association)는 2025년 7,917억 달러 매출 이후, 2026년 1조 달러를 공식 예측했다.

이 거대한 시장의 중심에 메모리 반도체가 있으며, 그 중에서도 **HBM(High Bandwidth Memory)**은 AI 인프라의 **전략적 초크포인트(Strategic Chokepoint)**로 부상했다. SK하이닉스와 마이크론은 2026년 HBM 생산량 전체가 이미 매진(sold out) 상태임을 보고했으며, 이는 HBM이 단순한 부품이 아닌 AI 산업의 희소 자원이 되었음을 의미한다.


[Takeaway 1] 90년대 이후 최대의 부흥기: '메모리 슈퍼사이클'의 귀환

Bank of America의 선언: "1990년대 이후 최대 부흥"

Bank of America(BofA)는 2026년 메모리 반도체 시장을 **"1990년대 이후 최대의 슈퍼사이클"**로 정의했다. 이는 단순한 업황 호조가 아니라, AI 인프라 투자라는 구조적 수요 변화가 만들어낸 패러다임 전환이다.

"SK hynix is our global memory industry's Top Pick — the primary beneficiary of the AI-driven memory supercycle." — Bank of America, 2026 Semiconductor Outlook

메모리 시장 규모 전망: $440B의 거대한 물결

BofA는 2026년 글로벌 메모리 반도체 시장이 약 **$440B(4,400억 달러)**에 달할 것으로 전망한다. 이를 구성하는 핵심 지표는 다음과 같다:

지표2025년2026년(E)YoY 증감
DRAM 매출+51% YoY+51%
NAND 매출+45% YoY+45%
DRAM ASP+33% YoY+33%
NAND ASP+26% YoY+26%
HBM 시장 규모~$34.5B$54.6B+58%
전체 메모리 시장~$440B

왜 '슈퍼사이클'인가: 과거와의 비교

메모리 반도체는 전통적으로 3~4년 주기의 사이클 산업이다. 호황과 불황을 반복하며, 2023년에는 극심한 하락 사이클을 경험했다. 그러나 2024년부터 시작된 이번 상승 사이클은 과거와 본질적으로 다르다:

  1. 수요 구조의 변화: 과거 메모리 수요는 PC, 스마트폰에 의존했지만, 이번에는 AI 데이터센터라는 거대한 신규 수요원이 등장
  2. ASP(평균판매가격)의 구조적 상승: AI용 HBM은 일반 DRAM 대비 5~10배 높은 ASP를 유지
  3. 공급 제약의 지속: HBM 제조는 일반 DRAM 대비 3~5배 긴 리드타임과 복잡한 공정을 요구, 급격한 공급 확대가 불가능
  4. 주요 메이커의 HBM 전환: SK하이닉스, 삼성, 마이크론 모두 생산 능력을 HBM에 집중하면서 범용 DRAM/NAND 공급도 타이트해지는 이중 긴축

HBM 시장의 폭발적 성장

HBM 시장만 놓고 보면, 성장세는 더욱 극적이다:

[HBM 시장 규모 추이 및 전망]

$54.6B ■■■■■■■■■■■■■■■■■■■■■■■■■■■ (+58%)
$34.5B ■■■■■■■■■■■■■■■■■■ (+280%)
 $9.1B ■■■■■
 $2.5B ■■
 $1.1B ■
------+------+------+------+------+------     2022   2023   2024   2025(E) 2026(E)

2022년 약 $1.1B이었던 HBM 시장은 4년 만에 약 50배 성장하며 $54.6B에 도달할 전망이다. 이는 전체 메모리 시장의 약 12.4%에 해당하는 수치로, HBM이라는 단일 제품군이 전체 메모리 산업의 성장을 견인하고 있음을 보여준다.

HBM3E 가격 인상: 수요-공급 불균형의 증거

삼성전자와 SK하이닉스는 2026년 납품분 HBM3E 가격을 약 20% 인상한 것으로 보도되었다. AI 가속기에 대한 폭발적 수요가 공급을 초과하면서 발생한 현상이다. 이는 메모리 반도체가 더 이상 커모디티(commodity)가 아닌 프리미엄 전략 물자로 전환되고 있음을 방증한다.

투자 시사점: BofA의 탑픽(Top Pick)

BofA는 SK하이닉스를 글로벌 메모리 산업의 **탑픽(Top Pick)**으로 선정했다. UBS는 SK하이닉스가 NVIDIA Vera Rubin 플랫폼의 HBM4 시장에서 약 70% 점유율을 차지할 것으로 예측한다. 그러나 일부 리서치 기관은 2026년 이후 경쟁 심화와 생산 능력 확대로 인한 가격 조정 가능성도 경고하고 있어, 투자자들은 사이클의 정점 시점을 면밀히 주시할 필요가 있다.


[Takeaway 2] 16단(16-Hi)의 한계를 깨다: 머리카락 3분의 1 두께의 마법

CES 2026: SK하이닉스의 16-Hi HBM4 공개

2026년 1월, CES 2026에서 SK하이닉스는 세계 최초 16단 적층(16-Hi) HBM4를 공개하며 업계를 충격에 빠뜨렸다. 이 제품은 단일 스택에서 48GB 이상의 용량2 TB/s 이상의 대역폭을 제공한다. 그러나 이 성과의 이면에는 물리학의 한계에 도전하는 극한의 엔지니어링이 숨어 있다.

JEDEC 775um: 움직일 수 없는 벽

HBM 스택의 높이는 JEDEC(Joint Electron Device Engineering Council) 표준에 의해 **775um(마이크로미터)**로 엄격히 제한된다. 이는 GPU 패키지 위에 HBM 스택이 올라갈 때, 전체 모듈의 높이, 열 관리, 기판 설계와의 호환성을 보장하기 위한 표준이다.

16개의 DRAM 다이를 775um 안에 적층해야 한다는 것은, 각 다이의 두께가 약 30um 이하여야 함을 의미한다. 참고로 인간 머리카락의 두께가 약 70~100um이므로, HBM4의 개별 DRAM 다이는 머리카락 두께의 약 3분의 1 수준이다.

[HBM4 16-Hi 스택 구조도]
775um (JEDEC 표준 높이 제한)
    ┌─────────────────────────────┐ ─┐
Molding Compound        │  │
    ├─────────────────────────────┤  │
DRAM Die #16  (~30um)      │  │
    ├─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─┤  │
Micro-bump / Bonding Layer │  │
    ├─────────────────────────────┤  │
DRAM Die #15  (~30um)      │  │
    ├─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─┤  │
Micro-bump / Bonding Layer │  │
    ├─────────────────────────────┤  │
...                 │  │   16DRAM
        (Die #14 ~ Die #3)       │  │   적층
...                 │  │
    ├─────────────────────────────┤  │
DRAM Die #2   (~30um)      │  │
    ├─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─┤  │
Micro-bump / Bonding Layer │  │
    ├─────────────────────────────┤  │
DRAM Die #1   (~30um)      │  │
    ├─────────────────────────────┤ ─┘
    │                             │
Base Die (Logic Die)     │ ← 5nm/4nm 로직 공정
- PHY, ECC, Control    │                             │
    ├─────────────────────────────┤
|||  |||  |||  |||  |||   │ ← TSV (Through-Silicon Via)
|||  |||  |||  |||  |||   │   수천 개의 수직 관통 전극
    └─────────────────────────────┘
    ┌─────────────────────────────┐
Silicon Interposer     │ ← 2.5D 실리콘 인터포저
      (GPUHBM을 연결하는 기판)    └─────────────────────────────┘

30um 웨이퍼 씨닝(Wafer Thinning): 극한의 정밀도

12-Hi HBM3E에서는 각 다이 두께가 약 50um이었다. 16-Hi HBM4에서는 이를 30um까지 줄여야 한다. 이 차이는 단순히 "20um 더 얇게 만든다"는 수준이 아니다:

  • 웨이퍼 휨(Warpage) 제어: 30um 두께의 실리콘 웨이퍼는 종이처럼 휘어지기 쉽다. 수 마이크로미터 단위의 평탄도를 유지해야 한다
  • TSV 관통 정밀도: 더 얇아진 다이를 관통하는 TSV(Through-Silicon Via)의 종횡비(Aspect Ratio)가 달라지며, 식각(Etching)과 충진(Filling) 공정의 난이도가 급상승
  • 다이 핸들링: 30um 다이는 극도로 취약해 반송, 정렬, 본딩 과정에서의 파손 위험이 크게 증가
  • 열 분산: 더 많은 다이가 밀집되면 열 발생이 증가하지만, 각 다이 사이의 방열 경로는 더 좁아짐

TSV(Through-Silicon Via): 수직 고속도로의 비밀

HBM의 핵심 기술인 TSV는 각 DRAM 다이를 수직으로 관통하는 전극이다. 데이터, 클럭, 제어 신호, 전원, 접지가 모두 이 TSV를 통해 16개의 다이를 관통한다.

[TSV 구조 상세도]

    Top DRAM Die
    ┌──────────────────┐
    │  ┌──┐ ┌──┐ ┌──┐ │   ← Cu(구리) 필러로 충진된
    │  │Cu│ │Cu│ │Cu│ │      TSV  (직경 ~5-10um)
    │  │  │ │  │ │  │ │
    │  │  │ │  │ │  │ │   ← Si(실리콘) 기판 (~30um 두께)
    │  │  │ │  │ │  │ │
    │  └──┘ └──┘ └──┘ │
    ├──○──○──○──○──○──┤   ← Micro-bump (접합부)
    │  ┌──┐ ┌──┐ ┌──┐ │
    │  │Cu│ │Cu│ │Cu│ │
    │  │  │ │  │ │  │ │
    │  │  │ │  │ │  │ │   ← 아래 다이와 정확히 정렬
    │  │  │ │  │ │  │ │
    │  └──┘ └──┘ └──┘ │
    └──────────────────┘
    Bottom DRAM Die

    * TSV 직경: ~5-10um
    * TSV 피치: ~40-55um
    * 다이당 TSV : 수천 개
    * 종횡비(Aspect Ratio): 3:1 ~ 6:1

HBM4의 2048-bit 인터페이스는 HBM3의 1024-bit 대비 2배로 넓어진 데이터 경로를 의미한다. 이를 위해 TSV의 수도 대폭 증가하며, 각 TSV 간의 정렬 정밀도는 서브 마이크로미터(sub-um) 수준이 요구된다.

HBM4 JEDEC 표준 핵심 스펙 (JESD270-4)

JEDEC는 2025년 4월 16일 HBM4 표준(JESD270-4)을 공식 발표했다. 주요 사양은 다음과 같다:

항목HBM3EHBM4비교
인터페이스 폭1024-bit2048-bit2배 확대
독립 채널 수16322배 증가
채널당 구조2 Pseudo-channel2 Pseudo-channel동일
전송 속도(per pin)8.0 Gbps6.4~8.0 Gbps
스택당 대역폭~1.2 TB/s1.62.0 TB/s+33~67%
최대 적층 수12-Hi4-Hi ~ 16-Hi16단 지원
DRAM 다이 밀도16/24 Gbit24/32 Gbit+33%
스택 높이 제한775um775um동일
VDDQ 옵션0.7/0.75/0.8/0.9V다중 전압 지원
RAS 기능DRFM (Row-hammer 방어)신규
커맨드/데이터 버스공유분리동시성 향상

핵심 설계 변경은 커맨드 버스와 데이터 버스의 분리다. HBM3까지는 커맨드와 데이터가 같은 버스를 공유했지만, HBM4에서는 이를 분리해 **동시성(concurrency)**을 높이고 레이턴시를 줄였다. 이는 AI 학습 시 대량의 데이터를 연속적으로 읽고 쓰는 패턴에 최적화된 설계다.

MR-MUF: SK하이닉스의 비밀 병기

SK하이닉스가 HBM 시장을 장악할 수 있었던 핵심 무기는 MR-MUF(Mass Reflow Molded Underfill) 기술이다. 이 기술은 다이 적층 과정에서의 열 관리와 **수율(yield)**에서 결정적인 우위를 제공한다.

MR-MUF vs TC-NCF 비교

항목MR-MUF (SK하이닉스)TC-NCF (삼성 등)
접합 온도상온(Room Temp)고온 (~300도C)
접합 압력소력(Small Force)강력(Strong Force)
수율평균 20% 이상 높음상대적 낮음
열 분산우수보통
보이드(Void) 발생적음상대적 많음
워페이지(Warpage)최소화상대적 큼

MR-MUF의 핵심 장점은 상온에서 소력으로 접합한다는 것이다. 반면 TC-NCF는 300도C의 고온과 강한 압력을 가하므로, 열 스트레스로 인한 다이 손상과 워페이지가 발생하기 쉽다.

SK하이닉스는 일본 Namics Corporation과의 독점 계약을 통해 특수 에폭시 몰딩 컴파운드(EMC)를 확보했다. 이 소재는 더 균일한 갭 필링과 뛰어난 캡슐레이션을 가능케 하여 보이드를 줄이고, 방열성을 높이며, 워페이지를 최소화한다.

16-Hi에서도 MR-MUF를 고수하는 이유

SK하이닉스는 16-Hi HBM4 생산에서도 MR-MUF를 유지하기로 결정했다. 차세대 플럭스리스(Fluxless) 본딩 기술도 평가했으나, 성능과 비용 측면에서 아직 시기상조라는 결론을 내렸다. MR-MUF 기술의 성숙도와 축적된 양산 노하우가 16단 적층의 수율 확보에 가장 유리하다는 판단이다.

하이브리드 본딩(Hybrid Bonding): 미래의 접합 기술

MR-MUF는 현재 16-Hi까지는 유효하지만, 20단 이상의 적층에서는 물리적 한계에 도달할 것으로 예상된다. SK하이닉스의 패키징 개발 부서장 이강석 부사장은 HBM4E 세대부터 하이브리드 본딩 기술을 도입할 계획임을 밝혔다.

하이브리드 본딩은 마이크로 범프 없이 구리(Cu) 패드를 직접 접합하는 기술로, 접합부의 피치를 극적으로 줄일 수 있다:

[접합 기술 진화 로드맵]

         Micro-bump           Hybrid Bonding
      (현재 MR-MUF)           (HBM4E/HBM5~)

    ┌─────────────┐         ┌─────────────┐
DRAM Die   │         │  DRAM Die    │             │         │             │
    └──○──○──○──┘         └──┤  ├──┤  ├──┘
       ↑  ↑  ↑               ↑  ↑  ↑  ↑
    Solder bump             Cu-Cu 직접 접합
    (피치 ~40um)            (피치 ~10um 이하)
    ┌──○──○──○──┐         ┌──┤  ├──┤  ├──┐
    │             │         │             │
DRAM Die   │         │  DRAM Die    └─────────────┘         └─────────────┘

    * 범프 제거 → 접합부 높이 감소
    * 피치 축소 → TSV 밀도 증가 가능
    * 열 저항 감소 → 방열 개선

SK하이닉스가 청주에 건설 중인 P&T7 패키징 공장은 20단 적층 변형(variant)에 대해 하이브리드 본딩을 최초로 대규모 파일럿 적용할 시설로 계획되어 있다.


[Takeaway 3] '커스텀 HBM(cHBM)'의 시대: 메모리가 로직을 품다

Standard HBM에서 Custom HBM으로의 전환

HBM4가 이전 세대와 근본적으로 다른 점은 **베이스 다이(Base Die)**의 혁신이다. 과거 HBM의 베이스 다이는 단순한 I/O 인터페이스와 기본적인 제어 로직만 담았다. 그러나 HBM4부터는 베이스 다이가 본격적인 로직 칩으로 진화하고 있다.

베이스 다이의 로직 공정 전환

항목HBM3E 이전HBM4변화
베이스 다이 공정12nm Planar5nm/4nm FinFET로직 공정 전환
베이스 다이 역할I/O, 기본 제어PHY + ECC + 커스텀 로직기능 확대
제조 방식메모리 팹에서 생산TSMC 등 파운드리외부 위탁
PHY 채널 길이~6mm~2mm3배 단축
전력 효율기준~40% 개선대폭 향상

베이스 다이의 공정이 12nm Planar에서 5nm/4nm FinFET으로 전환됨에 따라, PHY(Physical Layer) 회로의 채널 길이가 6mm에서 약 2mm로 대폭 줄었다. 이는 신호 전달 거리 단축으로 인한 전력 소비 감소지연 시간 축소를 동시에 달성한다.

[Standard HBM vs Custom HBM 아키텍처 비교]

  ┌──── Standard HBM (sHBM) ────┐    ┌──── Custom HBM (cHBM) ────┐
  │                              │    │                            │
  │  ┌─────────────────────┐    │    │  ┌─────────────────────┐  │
  │  │    DRAM Die Stack    │    │    │  │    DRAM Die Stack    │  │
   (8-Hi / 12-Hi)    │    │    │     (12-Hi / 16-Hi)   │  │
  │  └─────────────────────┘    │    │  └─────────────────────┘  │
  │  ┌─────────────────────┐    │    │  ┌─────────────────────┐  │
  │  │   Base Die (12nm)    │    │    │  │  Base Die (5nm/4nm)  │  │
  │  │                      │    │    │  │                      │  │
  │  │  ┌──────┐ ┌──────┐  │    │    │  │  ┌──────┐ ┌──────┐  │  │
  │  │  │ PHY  │ │ ECC  │  │    │    │  │  │ PHY  │ │ ECC  │  │  │
  │  │  └──────┘ └──────┘  │    │    │  │  └──────┘ └──────┘  │  │
  │  │                      │    │    │  │  ┌──────┐ ┌──────┐  │  │
  (기본 I/O만 수행)    │    │    │  │  │Custom│ │Near- │  │  │
  │  │                      │    │    │  │  │Logic │ │Memory│  │  │
  │  │                      │    │    │  │  (고객별)│ │Proc.   │  │
  │  └─────────────────────┘    │    │  │  └──────┘ └──────┘  │  │
  │                              │    │  └─────────────────────┘  │
  └──────────────────────────────┘    └────────────────────────────┘

    * sHBM: 표준화된 I/O 인터페이스       * cHBM: 고객 맞춤형 로직 통합
    * 범용성 높음                          * GPU/ASIC과 최적화된 연동
    * 상대적 저비용                        * Near-Memory Processing 가능

sHBM vs cHBM 상세 비교

구분sHBM (Standard HBM)cHBM (Custom HBM)
베이스 다이 설계JEDEC 표준 준수, 범용고객사(NVIDIA, Google 등) 요구사항 반영
공정 노드12nm 이상 (메모리 공정)5nm/4nm (로직 파운드리 공정)
커스텀 로직없음데이터 전처리, 압축, 포맷 변환 등
PHY 최적화범용 PHYGPU/ASIC 인터페이스에 최적화
Near-Memory Computing불가가능
개발 비용상대적 저렴높음 (고객별 NRE 발생)
납기(Lead Time)상대적 짧음긴 편 (공동 설계 필요)
적합 고객다수의 범용 고객NVIDIA, Google, Amazon 등 대형 고객

Near-Memory Computing: 데이터 이동의 패러다임 전환

cHBM의 가장 혁신적인 개념은 **Near-Memory Computing (또는 Near-Memory Processing, NMP)**이다. 현재 AI 가속기 시스템에서는 GPU가 연산을 수행하기 위해 HBM에서 데이터를 읽어 GPU 코어로 가져오고(fetch), 연산 후 결과를 다시 HBM에 쓴다(write-back). 이 데이터 이동 과정이 전체 전력 소비의 상당 부분을 차지한다.

cHBM에서는 일부 **데이터 전처리(pre-processing)**와 메모리 관리 기능을 HBM 스택 내부의 베이스 다이에서 직접 수행한다. 이를 통해:

  1. GPU-메모리 간 데이터 이동 감소 → 에너지 절약
  2. 레이턴시 감소 → GPU가 기다리는 시간 단축
  3. GPU 코어의 연산 부하 분산 → 전체 시스템 효율 향상
  4. 데이터센터 전력 소비 절감 → TCO(Total Cost of Ownership) 개선

커스텀 HBM의 미래: 2027년 이후

현재 cHBM은 NVIDIA와 SK하이닉스/삼성 간의 긴밀한 공동 설계로 진행되고 있다. 2027년부터는 Google, Amazon, Microsoft 같은 하이퍼스케일러들이 자체 AI 칩(TPU, Trainium, Maia 등)에 최적화된 커스텀 HBM을 직접 설계 의뢰할 것으로 전망된다. 이는 HBM이 단순한 메모리 모듈에서 고객 맞춤형 컴퓨팅 유닛으로 진화하는 전환점이 될 것이다.


[Takeaway 4] SK하이닉스의 수성 vs 삼성 · 마이크론의 반격

3강 구도: HBM 전쟁의 세 축

2026년 HBM 시장은 SK하이닉스, 삼성전자, 마이크론 3사의 치열한 경쟁이 전개되고 있다. 각 사의 전략은 근본적으로 다르며, 이 차이가 시장 구도를 결정짓는다.

[2026HBM 시장 점유율 전망]

SK하이닉스 ████████████████████████████████████████████████████  54%
삼성전자   ████████████████████████████  28%
마이크론   ██████████████████  18%

(출처: 시장 분석 종합)

SK하이닉스: "AI 메모리의 왕"

SK하이닉스는 2025년 연간 영업이익에서 사상 처음으로 삼성전자를 추월하며 AI 시대의 메모리 챔피언으로 자리매김했다. 2026년 1월 기준, NVIDIA Vera Rubin 플랫폼의 HBM4 주문 중 약 **70%**를 확보한 것으로 보도되었다.

SK하이닉스의 핵심 경쟁력

전략 축상세 내용
MR-MUF 기술독자적 접합 기술로 수율 20%+ 우위. 16-Hi에서도 MR-MUF 유지
TSMC 동맹"One Team" 전략적 파트너십. TSMC가 베이스 다이를 5nm로 제조
P&T7 투자청주에 $13B(19조 원) 투자, 세계 최대 HBM 패키징 공장 건설
NVIDIA 락인Vera Rubin HBM4 주문의 약 70% 확보. 사실상 독점에 가까운 점유율
수직 통합M15X 생산라인과 P&T7 연계, DRAM 제조→적층→테스트 일관 체제

SK하이닉스의 P&T7 공장은 2026년 4월 착공, 2027년 말 본격 가동을 목표로 한다. 인접한 M15X 생산라인과 통합하여 DRAM 웨이퍼 제조부터 16단 수직 적층까지 모든 공정을 한 곳에서 처리하는 "슈퍼 팹(Super-Fab)" 체제를 구축한다.

삼성전자: "원스톱 숍(One-Stop Shop)" 전략

삼성전자는 2025년 HBM 시장에서 일시적으로 3위까지 밀렸으나, 2026년 들어 강력한 반격에 나섰다. 삼성의 반도체 부문 CEO 전영현 사장은 **"고객들이 '삼성이 돌아왔다(Samsung is back)'고 평가했다"**고 밝혔다.

삼성의 차별화 전략

전략 축상세 내용
1c DRAM (6세대 10nm)최신 1c 공정 적용. 1b 대비 에너지 효율 40% 개선
자체 파운드리세계 유일의 메모리+파운드리+패키징 통합 기업
4nm 로직 다이자체 파운드리의 4nm 공정으로 HBM4 베이스 다이 제조
턴키 솔루션설계→제조→패키징→테스트 전 과정을 단일 기업 내에서 해결
공격적 증설2026년 생산 능력 약 50% 확대 계획
HBM 매출 3배 증가2026년 HBM 매출을 2025년 대비 3배 이상 목표

삼성의 "원스톱 숍" 전략은 세계에서 유일하게 첨단 파운드리(4nm), 메모리 사업부, 첨단 패키징 시설을 하나의 기업 아래 보유한다는 구조적 장점을 활용하는 것이다. 이를 통해 공급망 리스크를 줄이고, 베이스 다이 설계에서부터 최종 패키지까지의 개발 주기를 단축할 수 있다.

삼성은 2026년 2월, HBM4가 NVIDIA의 Rubin 플랫폼 검증(verification)을 통과했다고 발표하며, 업계 최초로 상용 HBM4를 출하했다고 밝혔다. 이는 SK하이닉스의 독주에 제동을 거는 중요한 이정표다.

마이크론: "기술 혁신의 어벤저스"

마이크론은 3사 중 HBM 점유율이 가장 낮지만, 기술적 차별화를 통해 빠르게 추격하고 있다.

마이크론의 핵심 전략

전략 축상세 내용
USD 20B CapexFY2026 자본지출을 200억 달러로 확대 (전년 180억 달러 대비 +11%)
EUV 1-gamma업계 최초 EUV 리소그래피 기반 1-gamma 노드 적용
12-Hi HBM4 샘플36GB 용량, 2.8 TB/s 대역폭, 11 Gbps 핀 속도 달성
대역폭 선도HBM3E 대비 60% 이상 대역폭 증가, 20% 에너지 효율 개선
2026 공급 매진HBM 연간 매출 런레이트 약 $8B 목표
양산 일정HBM4 고수율 양산 2026년 2분기(2Q26) 목표

마이크론의 가장 큰 차별점은 EUV(극자외선) 리소그래피 기반 1-gamma DRAM 노드다. SK하이닉스와 삼성이 DUV(Deep UV) 기반 다중 패터닝에 의존하는 반면, 마이크론은 EUV를 적극적으로 도입해 더 높은 밀도와 성능을 달성하고 있다.

마이크론의 12-Hi HBM4 샘플은 2.8 TB/s 대역폭11 Gbps 핀 속도를 달성해 JEDEC 표준을 초과하는 성능을 보여주었다. 이는 2048-bit 인터페이스에서 약 7.85 GT/s의 전송 속도에 해당한다.

3사 전략 비교 총정리

비교 항목SK하이닉스삼성전자마이크론
2026 HBM 점유율(E)~54%~28%~18%
NVIDIA Vera Rubin 점유율~70%~15-20%~10-15%
핵심 접합 기술MR-MUF (독자)TC-NCF → MR-MUFMR-MUF
베이스 다이 파운드리TSMC 5nm삼성 파운드리 4nmTSMC
DRAM 공정1b+1c (6세대 10nm)1-gamma (EUV)
16-Hi 양산 시점2026 H12026 H1-H22026 H2
핵심 투자P&T7 ($13B)생산능력 50% 확대$20B Capex
차별화 포인트TSMC 동맹 + 수율원스톱 턴키EUV 1-gamma

[Takeaway 5] HBM vs GDDR: 왜 내 게이밍 PC에는 HBM이 들어가지 않을까?

"세계 최고 성능의 메모리를 왜 모든 곳에 쓰지 않는가?"

HBM이 이렇게 뛰어난 메모리라면, 왜 우리의 게이밍 그래픽카드에는 여전히 GDDR이 들어갈까? 이 질문에 답하려면 **비용 구조, 물리적 설계, 그리고 용도(Use Case)**의 근본적 차이를 이해해야 한다.

비용: TSV와 3D 적층의 대가

HBM의 가격이 GDDR보다 4~5배 비싼 이유는 명확하다:

비용 요인HBMGDDR
다이 적층TSV + 3D 스택 (8~16층)단일 다이 (적층 없음)
인터포저실리콘 인터포저 필요 (2.5D)불필요 (PCB 직접 실장)
웨이퍼 씨닝30~50um (극한 정밀)불필요
테스트개별 다이 + 스택 전체 이중 테스트단일 다이 테스트
접합 기술MR-MUF/TC-NCF (고비용)일반 솔더링
생산 리드타임3~5개월수 주
수율 관리16층 중 1층이라도 불량이면 전체 폐기개별 다이 수율

HBM3E 메모리 하나의 가격으로 GDDR7 기반 그래픽카드를 약 10장 분량의 메모리를 구매할 수 있다. RTX 5090 하나에 들어가는 GDDR7 비용과 H100 하나에 들어가는 HBM3 비용의 차이는 수십 배에 달한다.

아키텍처 비교: 수직 vs 수평

[HBM vs GDDR 물리적 구조 비교]

      ┌── HBM ──┐              ┌── GDDR ──┐

      ┌────────┐                 ┌───┐ ┌───┐ ┌───┐ ┌───┐
      │Stack 16│                 │   │ │   │ │   │ │   │
      │Stack 15│                 │ G │ │ G │ │ G │ │ G...   │                 │ D │ │ D │ │ D │ │ D      │Stack 2 │                 │ D │ │ D │ │ D │ │ D      │Stack 1 │                 │ R │ │ R │ │ R │ │ R      │Base Die│                 │   │ │   │ │   │ │   │
      └───┬────┘                 └─┬─┘ └─┬─┘ └─┬─┘ └─┬─┘
          │                        │     │     │     │
    ┌─────┴─────┐              ┌───┴─────┴─────┴─────┴───┐
Interposer │              │         PCB    └─────┬─────┘              │                           │
          │                     │    ┌────────────┐        │
    ┌─────┴─────┐              │    │    GPU     │        │
GPU     │              │    │            │        │
    └───────────┘              │    └────────────┘        │
                                └───────────────────────────┘

    * HBM: GPU 바로 옆, 인터포저 위에        * GDDR: GPU 주변, PCB 위에 분산 배치
    * 초광대역(2048-bit) + 짧은 거리         * 고클럭(32-36 Gbps) + 긴 거리
    * 낮은 전력, 높은 대역폭                  * 상대적 고전력, 높은 클럭 속도

성능 비교: 대역폭 vs 클럭 속도

항목HBM4 (16-Hi)GDDR7비교
인터페이스 폭2048-bit32-bit (per chip)HBM이 64배 넓음
핀당 속도6.4~8.0 Gbps32~36 GbpsGDDR이 4~5배 빠름
스택/칩당 대역폭1.62.0 TB/s~36 GB/sHBM이 50배 이상
시스템 대역폭~13+ TB/s (8스택)~1.8 TB/s (512-bit 버스)HBM이 7배 이상
전력 효율 (pJ/bit)~3.5 pJ/bit~8-10 pJ/bitHBM이 2~3배 효율적
용량(GPU당)288 GB (Rubin)32 GB (RTX 5090)HBM이 9배
변조 방식NRZPAM3GDDR이 더 고급 변조
가격(GB당)$20-30/GB~$3-5/GBGDDR이 6~10배 저렴

용도의 이원화(Bifurcation)

결론적으로, HBM과 GDDR은 같은 "메모리"이지만 완전히 다른 시장을 위해 설계되었다:

HBM의 영역: AI 데이터센터 / HPC

  • 초대형 AI 모델 학습(Training): 수백 GB의 모델 파라미터를 메모리에 상주
  • 대규모 추론(Inference): 수천 건의 동시 요청 처리
  • 핵심 가치: 대역폭 + 용량 + 전력 효율
  • 비용 허용 범위: GPU 하나에 $30,000~$40,000 → 메모리 비용 수천 달러 감수 가능

GDDR의 영역: 게이밍 / 소비자 GPU / 엣지 추론

  • 실시간 렌더링: 프레임 버퍼를 고속으로 읽고 쓰기
  • 소비자 가격대: GPU가 $500~$2,000 범위 → 메모리 비용 수백 달러 이내여야 함
  • 핵심 가치: 높은 클럭 속도 + 낮은 비용 + 범용성
  • 엣지 AI: 소규모 모델의 추론에 GDDR이 비용 효율적
[용도별 메모리 포지셔닝]

         비용 ↑
GDDR7
              │  ● 게이밍 GPU
              │  ● 소비자 가전
              │  ● 엣지 추론
              │─────────────────── 비용 효율 경계
HBM4
              │  ● AI 학습/추론
              │  ● 데이터센터
              │  ● HPC/과학 계산
              │  ● LLM 서빙
              └────────────────────→ 대역폭 요구량
            Low                    High

앞으로도 이 이원화 구조는 유지될 가능성이 높다. 다만, SPHBM4(Standard Package HBM4) 같은 새로운 표준이 등장하면서, 일반 유기 기판에도 탑재 가능한 HBM 변형이 등장해 엣지 AI 서버 등 중간 시장을 공략할 수 있다. JEDEC는 현재 SPHBM4 표준을 개발 중이며, HBM4급 성능을 핀 수를 줄인(Reduced Pin Count) 패키지로 제공하는 것을 목표로 한다.


HBM 세대별 종합 비교표

지금까지의 HBM 기술 진화를 한눈에 정리한다:

세대출시 연도핀당 속도인터페이스 폭스택당 대역폭최대 적층최대 용량주요 탑재 제품
HBM20131.0 Gbps1024-bit128 GB/s4-Hi4 GBAMD Fiji (R9 Fury)
HBM220162.0 Gbps1024-bit256 GB/s8-Hi8 GBNVIDIA V100, AMD MI25
HBM2E20203.6 Gbps1024-bit460 GB/s8-Hi16 GBNVIDIA A100, AMD MI200
HBM320226.4 Gbps1024-bit819 GB/s12-Hi48 GBNVIDIA H100
HBM3E20248.0-9.2 Gbps1024-bit1,229 GB/s12-Hi36 GBNVIDIA H200, B200
HBM420266.4-8.0 Gbps2048-bit1,600-2,000 GB/s16-Hi64 GBNVIDIA Rubin
HBM4E2027(E)TBD2048-bit2,000+ GB/s16-20-Hi96+ GBNVIDIA Feynman(E)
[HBM 세대별 대역폭 진화]

대역폭 (GB/s per stack)
    ^
2000│                                          ████ HBM4
    │                                          ████
1500│                                          ████
    │                                   ████   ████
1200│                                   ████   ████
    │                                   ████   ████ HBM3E
 800│                            ████   ████   ████
    │                            ████   ████   ████ HBM3
 460│                     ████   ████   ████   ████
    │                     ████   ████   ████   ████ HBM2E
 256│              ████   ████   ████   ████   ████
    │              ████   ████   ████   ████   ████ HBM2
 128│       ████   ████   ████   ████   ████   ████
    │       ████   ████   ████   ████   ████   ████ HBM
    └───────┴──────┴──────┴──────┴──────┴──────┴────→
          2013   2016   2020   2022   2024   2026

주목할 점은 HBM4의 핀당 속도(6.48.0 Gbps)가 HBM3E(8.09.2 Gbps)보다 오히려 낮거나 비슷하다는 것이다. 이는 HBM4가 클럭 속도를 높이는 대신 **인터페이스 폭을 2배로 확장(1024→2048-bit)**하는 전략을 취했기 때문이다. 넓은 버스를 낮은 클럭으로 구동하면 전력 효율이 크게 개선되며, 신호 무결성(Signal Integrity) 확보도 용이해진다.


기술 로드맵: HBM의 미래 (2026~2030)

[HBM 기술 로드맵 타임라인]

2026         2027          2028          2029          2030
  │           │             │             │             │
  ▼           ▼             ▼             ▼             ▼
┌─────┐   ┌──────┐     ┌──────┐     ┌──────┐     ┌──────┐
HBM4 │   │HBM4E │     │ HBM5 │     │HBM5E │     │ HBM6│     │   │      │     │      │     │      │     │      │
16-Hi│16-20 │     │20-Hi │     │20-24 │     │24+Hi│     │   │ Hi   │     │      │     │ Hi   │     │      │
│2TB/s│   │2+TB/s│     │2+TB/s│     │3+TB/s│     │4+TB/s│
│     │   │      │     │      │     │      │     │      │
MR-  │   │Hybrid│     │Hybrid│     │Hybrid│     │Embedd│
MUF  │   │Bond  │     │Bond  │     │Bond  │     │Cool  │
│     │   │도입  │     │본격화│     │성숙  │     │도입?└─────┘   └──────┘     └──────┘     └──────┘     └──────┘
  │           │             │             │             │
  ├── TSMC 3nm ──┤          │             │             │
  │           ├── TSMC 2nm ──────┤        │             │
  │           │             ├── TSMC A16 ──────┤        │
  │           │             │             ├── TSMC 1.4nm─┤
  │           │             │             │             │
  ├─ NVIDIA Rubin ──┤       │             │             │
  │           ├─ Feynman(?) ─────┤        │             │

2027년: HBM4E - 하이브리드 본딩의 서막

HBM4E는 2027년 하반기 양산을 목표로 하며, 최대 20단 적층96~120 GB 용량이 예상된다. 핵심 기술 변화는 하이브리드 본딩의 본격 도입이다. 마이크로 범프를 제거하고 Cu-Cu 직접 접합으로 전환하면:

  • TSV 피치를 더 줄일 수 있어 I/O 밀도 향상
  • 접합부 높이 감소로 20단 적층에서도 775um 높이 제한 준수
  • 열 저항 감소로 방열 성능 개선

2028~2029년: HBM5 - 2+ TB/s의 새로운 장

HBM5는 Wafer-to-Wafer(W2W) 하이브리드 본딩을 본격 채택할 것으로 전망된다. 20-Hi 적층에서 스택당 2 TB/s 이상의 대역폭과 96~120 GB 용량을 제공할 것으로 예상된다. 스택당 전력은 약 120W로 증가하며, 이를 관리하기 위한 혁신적인 열 관리 기술이 필요해진다.

2030년 이후: 임베디드 쿨링의 도래

더 먼 미래에는 HBM 스택 내부에 마이크로 채널 쿨링을 내장하는 기술이 연구되고 있다. DRAM 다이 사이에 미세한 냉각 유체 채널을 형성하여, 스택 내부에서 직접 열을 제거하는 방식이다. 이를 통해 적층 수를 24단 이상으로 늘리면서도 열 문제를 해결할 수 있을 것으로 기대된다.


투자 시사점: 메모리 슈퍼사이클에서의 기회와 리스크

핵심 수혜 기업 분석

기업티커핵심 투자 포인트리스크
SK하이닉스000660.KSHBM 시장 1위, NVIDIA 70% 점유, BofA 탑픽밸류에이션 부담, NVIDIA 의존도
삼성전자005930.KS원스톱 숍, 1c DRAM, 파운드리 시너지HBM 기술 격차, 수율 이슈
마이크론MU (NASDAQ)EUV 1-gamma, $20B Capex, 미국 내 생산시장 점유율 3위, HBM4 양산 지연 가능성
NVIDIANVDA (NASDAQ)AI GPU 시장 지배, Vera Rubin 플랫폼높은 밸류에이션, 경쟁 심화(AMD, 커스텀 ASIC)
TSMCTSM (NYSE)HBM 베이스 다이 파운드리, 독보적 공정 기술지정학 리스크(대만), CoWoS 캐파 병목
ASMLASML (NASDAQ)EUV 리소그래피 독점, High-NA EUV기술 의존도, 중국 수출 제한
한미반도체042700.KSHBM TC 본더 장비, MR-MUF 장비 공급SK하이닉스 단일 고객 리스크

밸류체인별 투자 테마

[HBM 밸류체인 투자 맵]

[설계/IP]                    [제조]                    [패키징/테스트]
  │                           │                          │
  ├── Rambus (PHY IP)         ├── SK하이닉스 (DRAM)      ├── SK하이닉스 (MR-MUF)
  ├── Synopsys (EDA)          ├── 삼성전자 (DRAM)        ├── 삼성전자 (TC-NCF)
  ├── Cadence (EDA)           ├── 마이크론 (DRAM)        ├── TSMC (CoWoS)
  │                           │                          ├── ASE/SPIL
  │                           │                          │
[장비/소재]                  [GPU/ASIC 고객]            [최종 소비]
  │                           │                          │
  ├── ASML (EUV 리소)         ├── NVIDIA (Rubin)         ├── Microsoft (Azure)
  ├── Tokyo Electron (CVD)    ├── AMD (MI400)            ├── Google (TPU)
  ├── 한미반도체 (TC Bonder)   ├── Intel (Falcon Shores)  ├── Amazon (Trainium)
  ├── Namics (EMC 소재)       ├── Broadcom (커스텀)      ├── Meta (MTIA)
  ├── BESI (Hybrid Bonder)    │                          │

투자 시 주의해야 할 리스크

  1. 사이클 정점 리스크: BofA가 "1990년대 이후 최대 슈퍼사이클"이라 부르는 만큼, 정점 이후의 하락 가능성도 존재. 일부 애널리스트는 2026년 이후 경쟁 심화와 캐파 확대로 가격 조정이 올 수 있다고 경고
  2. 기술 전환 리스크: HBM4에서 HBM4E로의 전환 시기에 재고 조정 가능성
  3. 지정학적 리스크: 미-중 기술 갈등, 대만 리스크(TSMC), 한국 반도체 수출 규제 등
  4. 수요 변동: AI 투자 사이클의 변화, 하이퍼스케일러의 Capex 축소 가능성
  5. 기술적 대안: CXL(Compute Express Link) 메모리, Processing-in-Memory(PIM) 등 HBM을 대체하거나 보완하는 기술의 등장

결론: 'Memory-as-Compute'로의 패러다임 전환

HBM4: 단순한 세대 교체가 아닌 변곡점

2026년의 HBM4는 단순히 "HBM3E의 다음 버전"이 아니다. 인터페이스 폭의 2배 확장, 베이스 다이의 로직 공정 전환, 커스텀 HBM의 등장 등 **메모리의 본질적 역할이 변화하는 변곡점(inflection point)**이다.

과거의 메모리는 CPU/GPU가 요청하면 데이터를 넘겨주는 **수동적 저장 장치(passive storage)**였다. 그러나 HBM4의 로직 베이스 다이, Near-Memory Computing, cHBM의 커스텀 로직 통합은 메모리가 **능동적 연산 참여자(active compute participant)**로 진화하고 있음을 보여준다.

Memory-as-Compute: 새로운 컴퓨팅 패러다임

[컴퓨팅 패러다임의 전환]

   과거 (CPU 중심)               현재 (GPU + HBM)             미래 (Memory-as-Compute)
  ┌──────────────┐           ┌──────────────┐           ┌──────────────┐
CPU      │           │     GPU      │           │  GPU + cHBM  │
    (연산 중심)  (병렬 연산)  (통합 연산)  │              │           │              │           │              │
  │  ┌────────┐  │           │  ┌────────┐  │           │  ┌────────┐  │
  │  │Compute │←─┼──느린──→  │  │Compute │←─┼──빠른──→  │  │Compute │  │
  │  └────────┘  │  버스     │  └────────┘  │  버스     │  └───┬────┘  │
  └──────────────┘           └──────────────┘           │     │       │
         ↕                          ↕                    │  ┌──┴───┐  │
      느린 메모리                 HBM (초고속)            │  │NMP   │  │
  ┌──────────────┐           ┌──────────────┐           │  │Logic │  │
DRAM      │           │  HBM3/HBM4   │           │  └──┬───┘  │
    (수동 저장) (고속 저장)   │           │     │      │
  └──────────────┘           └──────────────┘           │  ┌──┴───┐  │
                                                         │  │Memory│  │
         데이터 이동이             데이터 이동이           │  │Array │  │
         최대 병목               상당히 개선              │  └──────┘  │
                                                         └──────────────┘
                                                          데이터 이동 최소화
                                                          + 메모리 내 연산

이 패러다임에서 메모리는 더 이상 "저장"만 하지 않는다. 데이터가 있는 곳에서 연산을 수행함으로써, 폰 노이만 아키텍처의 근본적 한계인 "데이터 이동 비용"을 극복하려는 것이다.

로드맵: HBM5 이후의 세계

시점세대적층 수대역폭핵심 기술 전환
2026HBM412-16-Hi~2 TB/s2048-bit 인터페이스, 로직 베이스 다이
2027HBM4E16-20-Hi2+ TB/s하이브리드 본딩 도입, 96GB+
2028-29HBM520+ Hi2+ TB/sW2W 하이브리드 본딩, 120GB+
2030+HBM624+ Hi4+ TB/s임베디드 쿨링, 240GB+

최종 메시지: 반도체의 미래는 "메모리"가 결정한다

1995년 Wulf 교수가 경고한 "메모리 벽"은 30년이 지난 지금, AI라는 사상 최대의 컴퓨팅 수요를 만나 산업의 지형을 근본적으로 바꾸고 있다. 과거에는 "얼마나 빠른 프로세서를 만들 수 있는가"가 반도체 산업의 핵심 질문이었지만, 2026년의 질문은 이것이다:

"얼마나 빠르게, 얼마나 많은 데이터를 프로세서에 공급할 수 있는가?"

이 질문에 대한 답이 바로 HBM이며, SK하이닉스, 삼성전자, 마이크론은 이 답을 놓고 수조 원 규모의 투자와 기술 경쟁을 벌이고 있다. HBM4는 그 경쟁의 최전선이자, 메모리가 단순한 부품에서 AI 시대의 전략적 핵심 자산으로 부상하는 역사적 전환점이다.


References

  1. JEDEC, "JEDEC and Industry Leaders Collaborate to Release JESD270-4 HBM4 Standard", jedec.org, 2025
  2. JEDEC, "JEDEC Prepares SPHBM4 Standard to Deliver HBM4-Level Throughput with Reduced Pin Count", jedec.org, 2025
  3. Tom's Hardware, "JEDEC finalizes HBM4 memory standard with major bandwidth and efficiency upgrades", tomshardware.com, 2025
  4. NVIDIA Developer Blog, "Inside the NVIDIA Rubin Platform: Six New Chips, One AI Supercomputer", developer.nvidia.com, 2026
  5. Tom's Hardware, "NVIDIA's Vera Rubin platform in depth", tomshardware.com, 2026
  6. VideoCardz, "NVIDIA Vera Rubin NVL72 Detailed", videocardz.com, 2026
  7. SK hynix Newsroom, "2026 Market Outlook: SK hynix's HBM to Fuel AI Memory Boom", news.skhynix.com, 2026
  8. SK hynix Newsroom, "CES 2026: SK hynix Showcases Next-Gen AI Memory Innovations", news.skhynix.com, 2026
  9. TrendForce, "SK hynix May Stick With MR-MUF for HBM4 16-High", trendforce.com, 2026
  10. TrendForce, "NVIDIA Fuels HBM4 Race: 12-Layer Ramps, 16-Layer Push", trendforce.com, 2026
  11. TrendForce, "Memory Wall Bottleneck: AI Compute Sparks Memory Supercycle", trendforce.com, 2026
  12. Samsung Global Newsroom, "Samsung Ships Industry-First Commercial HBM4", news.samsung.com, 2026
  13. Seeking Alpha, "SK hynix secures 70% of Nvidia's HBM orders for Vera Rubin", seekingalpha.com, 2026
  14. CNBC, "SK Hynix overtakes Samsung in annual profit for the first time", cnbc.com, 2026
  15. Tom's Hardware, "Micron starts to ship samples of HBM4 memory — 36 GB capacity and bandwidth of 2 TB/s", tomshardware.com, 2025
  16. TrendForce, "Micron Hikes CapEx to $20B with 2026 HBM Supply Fully Booked", trendforce.com, 2025
  17. Tom's Hardware, "SK hynix to spend $13 billion on the world's largest HBM memory assembly plant", tomshardware.com, 2026
  18. Bloomberg, "SK Hynix Plans to Invest $13 Billion in New Chip Packaging Plant", bloomberg.com, 2026
  19. Omdia, "AI drives semiconductor revenues past $1 trillion for the first time in 2026", omdia.tech.informa.com, 2026
  20. Tom's Hardware, "Semiconductor industry on track to hit $1 trillion in sales in 2026, SIA predicts", tomshardware.com, 2026
  21. Semi Engineering, "Speeding Down Memory Lane With Custom HBM", semiengineering.com, 2025
  22. Korea Herald, "Memory supercycle builds as HBM demand lifts Samsung, SK hynix earnings", koreaherald.com, 2026
  23. Counterpoint Research, "Global DRAM and HBM Market Share: Quarterly", counterpointresearch.com, 2025
  24. WCCFTech, "Next-Gen HBM Architecture Detailed Including HBM4, HBM5, HBM6, HBM7 & HBM8", wccftech.com, 2025
  25. Semi Engineering, "HBM4 Sticks With Microbumps, Postponing Hybrid Bonding", semiengineering.com, 2025
  26. Rambus, "High Bandwidth Memory (HBM): Everything You Need to Know", rambus.com, 2025
  27. Wikipedia, "High Bandwidth Memory", en.wikipedia.org
  28. FaceOfIT, "Comparing HBM3 vs HBM4 vs. GDDR7 Specifications for AI & HPC", faceofit.com, 2026
  29. Nomad Semi, "Deep Dive on HBM", nomadsemi.com, 2025
  30. Wm. A. Wulf & Sally A. McKee, "Hitting the Memory Wall: Implications of the Obvious", ACM SIGARCH Computer Architecture News, 1995

The Peak of the AI Memory Supercycle: 5 Decisive Moments for HBM That Will Shake the 2026 Semiconductor Market


Introduction: AI Hitting the 'Memory Wall' — HBM Emerges as the Savior

"The memory wall is the single greatest bottleneck in the history of computing." — Wm. A. Wulf & Sally A. McKee, "Hitting the Memory Wall" (1995)

In 1995, Professors Wulf and McKee at the University of Virginia warned that the gap between processor performance and memory bandwidth would threaten the future of computing. Thirty years later in 2026, this prophecy has become the most painful reality of the AI era.

Compute Power vs Memory Bandwidth: A 30-Year Divergence

Over the past 20 years, computing performance has improved approximately 10,000x, while memory bandwidth has only increased about 10x. According to TrendForce, peak FLOPS of server hardware scales by 3.0x every two years, while DRAM bandwidth scales by only 1.6x and interconnect bandwidth by a mere 1.4x. This structural imbalance means that AI workloads are inherently memory-bandwidth-limited workloads.

[Memory Wall Conceptual Diagram]

Performance
    ^
    |GPU Compute (FLOPS)
    |    /    ~3.0x / 2 years
    |   /
    |  /Memory Bandwidth
    | /          /    ~1.6x / 2 years
    |/          /
    |----------/----------Time
    |         /
    |        /This gap is the "Memory Wall"
    |       /
    |------/
    |
    +--------------------------------Year
    2000      2010      2020      2026

The Arrival of the Trillion-Parameter Era

As of 2026, AI model parameter counts have already surpassed the trillions. GPT-4 class models have over 1 trillion parameters, and next-generation models are racing toward 10 trillion parameters. Loading a single model into memory alone requires tens to hundreds of GB of HBM, and the training and inference processes must read and write this memory at speeds of several TB per second.

NVIDIA Vera Rubin: The First Major Consumer of HBM4

NVIDIA unveiled its next-generation AI platform Vera Rubin at CES 2026. The Rubin GPU, manufactured on TSMC's 3nm process, integrates 336 billion transistors and achieves 50 PFLOPS in NVFP4 inference. The key is memory. Each Rubin GPU features 8 HBM4 stacks, providing a total of 288GB capacity and approximately 13 TB/s or more of memory bandwidth. This represents roughly a 3x increase in memory bandwidth compared to Blackwell.

The Vera Rubin NVL72 rack system operates 72 Rubin GPUs and 36 Vera CPUs as a unified computing fabric, and the NVL144 full rack configuration boasts a staggering 20,736 TB of HBM4 memory.

ItemBlackwell B200RubinChange
ProcessTSMC 4nmTSMC 3nm1 gen. shrink
Transistors208 billion336 billion+61.5%
NVFP4 Inference10 PFLOPS50 PFLOPS5x
NVFP4 Training10 PFLOPS35 PFLOPS3.5x
HBM GenerationHBM3EHBM41 gen. evolution
HBM per GPU192 GB288 GB+50%
Memory Bandwidth~8 TB/s~13 TB/s+62.5%

The Heart of the $1 Trillion Semiconductor Market

In 2026, the global semiconductor market is virtually certain to surpass $1 trillion (approximately $975B to $1T) for the first time in history. According to Omdia's analysis, the computing and data storage segment will grow 41.4% year-over-year, surpassing $500 billion. The SIA (Semiconductor Industry Association) officially forecasted $1 trillion for 2026, following $791.7 billion in revenue in 2025.

At the center of this massive market lies memory semiconductors, and among them, HBM (High Bandwidth Memory) has risen as a strategic chokepoint for AI infrastructure. SK Hynix and Micron have reported that their entire 2026 HBM production is already sold out, signifying that HBM has become not just a component but a scarce resource of the AI industry.


[Takeaway 1] The Biggest Boom Since the 1990s: The Return of the 'Memory Supercycle'

Bank of America's Declaration: "The Biggest Boom Since the 1990s"

Bank of America (BofA) has defined the 2026 memory semiconductor market as "the biggest supercycle since the 1990s." This is not simply a cyclical upturn, but a paradigm shift driven by structural demand changes in AI infrastructure investment.

"SK hynix is our global memory industry's Top Pick — the primary beneficiary of the AI-driven memory supercycle." — Bank of America, 2026 Semiconductor Outlook

Memory Market Size Forecast: A Massive $440B Wave

BofA forecasts the 2026 global memory semiconductor market will reach approximately $440B (440 billion dollars). The key indicators comprising this are as follows:

Metric20252026 (E)YoY Change
DRAM Revenue+51% YoY+51%
NAND Revenue+45% YoY+45%
DRAM ASP+33% YoY+33%
NAND ASP+26% YoY+26%
HBM Market Size~$34.5B$54.6B+58%
Total Memory Market~$440B

Why a 'Supercycle': Comparison with the Past

Memory semiconductors have traditionally been a cyclical industry with 3-4 year cycles. They repeatedly go through booms and busts, experiencing a severe downturn in 2023. However, this upswing cycle that began in 2024 is fundamentally different from the past:

  1. Changed demand structure: Past memory demand depended on PCs and smartphones, but this time a massive new demand driver has emerged — AI data centers
  2. Structural rise in ASP (Average Selling Price): AI-grade HBM maintains ASPs 5-10x higher than regular DRAM
  3. Persistent supply constraints: HBM manufacturing requires 3-5x longer lead times and more complex processes than regular DRAM, making rapid supply expansion impossible
  4. Major makers pivoting to HBM: SK Hynix, Samsung, and Micron are all concentrating production capacity on HBM, tightening the supply of commodity DRAM/NAND as well — a dual squeeze

Explosive Growth of the HBM Market

Looking at the HBM market alone, the growth trajectory is even more dramatic:

[HBM Market Size Trends and Forecast]

$54.6B ■■■■■■■■■■■■■■■■■■■■■■■■■■■ (+58%)
$34.5B ■■■■■■■■■■■■■■■■■■ (+280%)
 $9.1B ■■■■■
 $2.5B ■■
 $1.1B ■
------+------+------+------+------+------     2022   2023   2024   2025(E) 2026(E)

The HBM market, which was approximately $1.1B in 2022, is projected to reach $54.6B — growing roughly 50x in just four years. This represents approximately 12.4% of the total memory market, demonstrating that HBM as a single product category is driving the growth of the entire memory industry.

HBM3E Price Increases: Evidence of Supply-Demand Imbalance

Samsung Electronics and SK Hynix have reportedly raised HBM3E prices by approximately 20% for 2026 deliveries. This phenomenon is driven by explosive demand for AI accelerators exceeding supply. This demonstrates that memory semiconductors are no longer a commodity but are transitioning into premium strategic materials.

Investment Implications: BofA's Top Pick

BofA has selected SK Hynix as the Top Pick for the global memory industry. UBS predicts SK Hynix will capture approximately 70% market share in the HBM4 market for NVIDIA's Vera Rubin platform. However, some research firms also warn of potential price adjustments after 2026 due to intensifying competition and production capacity expansion, meaning investors should closely monitor the cycle peak timing.


[Takeaway 2] Breaking the 16-Layer (16-Hi) Barrier: The Magic of One-Third the Thickness of a Human Hair

CES 2026: SK Hynix Unveils 16-Hi HBM4

In January 2026, at CES 2026, SK Hynix unveiled the world's first 16-layer stacked (16-Hi) HBM4, shocking the industry. This product delivers 48GB or more capacity and over 2 TB/s bandwidth from a single stack. However, behind this achievement lies extreme engineering that challenges the limits of physics.

JEDEC 775um: An Immovable Wall

The height of an HBM stack is strictly limited to 775um (micrometers) by the JEDEC (Joint Electron Device Engineering Council) standard. This standard ensures compatibility with overall module height, thermal management, and substrate design when HBM stacks are placed on top of GPU packages.

Stacking 16 DRAM dies within 775um means that each die must be approximately 30um or thinner. For reference, a human hair is about 70-100um thick, so each individual DRAM die in HBM4 is roughly one-third the thickness of a human hair.

[HBM4 16-Hi Stack Structure Diagram]
775um (JEDEC standard height limit)
    ┌─────────────────────────────┐ ─┐
Molding Compound        │  │
    ├─────────────────────────────┤  │
DRAM Die #16  (~30um)      │  │
    ├─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─┤  │
Micro-bump / Bonding Layer │  │
    ├─────────────────────────────┤  │
DRAM Die #15  (~30um)      │  │
    ├─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─┤  │
Micro-bump / Bonding Layer │  │
    ├─────────────────────────────┤  │
...                 │  │   16-layer DRAM
        (Die #14 ~ Die #3)       │  │   stacking
...                 │  │
    ├─────────────────────────────┤  │
DRAM Die #2   (~30um)      │  │
    ├─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─ ─┤  │
Micro-bump / Bonding Layer │  │
    ├─────────────────────────────┤  │
DRAM Die #1   (~30um)      │  │
    ├─────────────────────────────┤ ─┘
    │                             │
Base Die (Logic Die)     │ ← 5nm/4nm logic process
- PHY, ECC, Control    │                             │
    ├─────────────────────────────┤
|||  |||  |||  |||  |||   │ ← TSV (Through-Silicon Via)
|||  |||  |||  |||  |||Thousands of vertical through-electrodes
    └─────────────────────────────┘
    ┌─────────────────────────────┐
Silicon Interposer     │ ← 2.5D silicon interposer
      (substrate connecting GPU    │   and HBM)    └─────────────────────────────┘

30um Wafer Thinning: Extreme Precision

In 12-Hi HBM3E, each die thickness was approximately 50um. For 16-Hi HBM4, this must be reduced to 30um. This difference is far more than simply "making it 20um thinner":

  • Wafer warpage control: A 30um-thick silicon wafer bends as easily as paper. Flatness must be maintained at the micrometer scale
  • TSV penetration precision: The aspect ratio of TSVs (Through-Silicon Vias) penetrating thinner dies changes, dramatically increasing the difficulty of etching and filling processes
  • Die handling: 30um dies are extremely fragile, significantly increasing the risk of breakage during transport, alignment, and bonding
  • Heat dissipation: More densely packed dies generate more heat, but the thermal dissipation paths between each die become narrower

TSV (Through-Silicon Via): The Secret of the Vertical Highway

TSV, the core technology of HBM, consists of electrodes that vertically penetrate each DRAM die. Data, clock, control signals, power, and ground all pass through these TSVs penetrating all 16 dies.

[TSV Structure Detail]

    Top DRAM Die
    ┌──────────────────┐
    │  ┌──┐ ┌──┐ ┌──┐ │   ← TSV holes filled with
    │  │Cu│ │Cu│ │Cu│ │      Cu (copper) pillars
    │  │  │ │  │ │  │       (diameter ~5-10um)
    │  │  │ │  │ │  │ │   ← Si (silicon) substrate (~30um thick)
    │  │  │ │  │ │  │ │
    │  └──┘ └──┘ └──┘ │
    ├──○──○──○──○──○──┤   ← Micro-bump (bonding junction)
    │  ┌──┐ ┌──┐ ┌──┐ │
    │  │Cu│ │Cu│ │Cu│ │
    │  │  │ │  │ │  │ │
    │  │  │ │  │ │  │ │   ← Precisely aligned with die below
    │  │  │ │  │ │  │ │
    │  └──┘ └──┘ └──┘ │
    └──────────────────┘
    Bottom DRAM Die

    * TSV diameter: ~5-10um
    * TSV pitch: ~40-55um
    * TSVs per die: thousands
    * Aspect Ratio: 3:1 ~ 6:1

HBM4's 2048-bit interface represents a data path that is 2x wider than HBM3's 1024-bit. This requires a significant increase in the number of TSVs, and the alignment precision between each TSV must be at the sub-micrometer (sub-um) level.

HBM4 JEDEC Standard Core Specs (JESD270-4)

JEDEC officially released the HBM4 standard (JESD270-4) on April 16, 2025. The key specifications are as follows:

ItemHBM3EHBM4Comparison
Interface Width1024-bit2048-bit2x wider
Independent Channels16322x increase
Per-Channel Structure2 Pseudo-channel2 Pseudo-channelSame
Speed (per pin)8.0 Gbps6.4~8.0 Gbps
Bandwidth per Stack~1.2 TB/s1.62.0 TB/s+33~67%
Max Stacking12-Hi4-Hi ~ 16-Hi16-layer support
DRAM Die Density16/24 Gbit24/32 Gbit+33%
Stack Height Limit775um775umSame
VDDQ Options0.7/0.75/0.8/0.9VMulti-voltage
RAS FeatureDRFM (Row-hammer defense)New
Command/Data BusSharedSeparatedImproved concurrency

The key design change is the separation of the command bus and data bus. Up through HBM3, command and data shared the same bus, but HBM4 separates them to increase concurrency and reduce latency. This is a design optimized for the pattern of reading and writing large amounts of data continuously during AI training.

MR-MUF: SK Hynix's Secret Weapon

The key weapon that enabled SK Hynix to dominate the HBM market is MR-MUF (Mass Reflow Molded Underfill) technology. This technology provides decisive advantages in thermal management and yield during the die stacking process.

MR-MUF vs TC-NCF Comparison

ItemMR-MUF (SK Hynix)TC-NCF (Samsung, etc.)
Bonding TemperatureRoom TemperatureHigh temp (~300 deg C)
Bonding PressureSmall ForceStrong Force
YieldAvg. 20%+ higherRelatively lower
Heat DissipationExcellentModerate
Void GenerationMinimalRelatively more
WarpageMinimizedRelatively higher

The key advantage of MR-MUF is bonding at room temperature with minimal force. In contrast, TC-NCF applies high temperatures of 300 degrees C and strong pressure, making die damage and warpage from thermal stress more likely.

SK Hynix secured a specialized epoxy molding compound (EMC) through an exclusive contract with Japan's Namics Corporation. This material enables more uniform gap filling and superior encapsulation, reducing voids, improving heat dissipation, and minimizing warpage.

Why MR-MUF Is Maintained Even for 16-Hi

SK Hynix has decided to maintain MR-MUF for 16-Hi HBM4 production. While next-generation fluxless bonding technology was also evaluated, they concluded it is still premature in terms of performance and cost. The maturity of MR-MUF technology and accumulated mass production know-how were deemed most advantageous for securing yield in 16-layer stacking.

Hybrid Bonding: The Bonding Technology of the Future

While MR-MUF remains viable up to 16-Hi, it is expected to reach physical limits at 20 layers or more. SK Hynix's VP of Packaging Development, Lee Kang-seok, has announced plans to introduce hybrid bonding technology starting with the HBM4E generation.

Hybrid bonding is a technology that directly bonds copper (Cu) pads without micro-bumps, enabling dramatic reduction in bonding pitch:

[Bonding Technology Evolution Roadmap]

         Micro-bump           Hybrid Bonding
      (Current MR-MUF)        (HBM4E/HBM5~)

    ┌─────────────┐         ┌─────────────┐
DRAM Die   │         │  DRAM Die    │             │         │             │
    └──○──○──○──┘         └──┤  ├──┤  ├──┘
       ↑  ↑  ↑               ↑  ↑  ↑  ↑
    Solder bump             Cu-Cu direct bonding
    (pitch ~40um)           (pitch ~10um or less)
    ┌──○──○──○──┐         ┌──┤  ├──┤  ├──┐
    │             │         │             │
DRAM Die   │         │  DRAM Die    └─────────────┘         └─────────────┘

    * Bump removal → reduced bonding height
    * Pitch reduction → increased TSV density possible
    * Reduced thermal resistance → improved heat dissipation

SK Hynix's P&T7 packaging factory under construction in Cheongju is planned as the facility for the first large-scale pilot application of hybrid bonding for 20-layer stacking variants.


[Takeaway 3] The Era of 'Custom HBM (cHBM)': Memory Embraces Logic

The Shift from Standard HBM to Custom HBM

What fundamentally distinguishes HBM4 from previous generations is the innovation in the base die. In the past, the HBM base die contained only simple I/O interfaces and basic control logic. However, starting with HBM4, the base die is evolving into a full-fledged logic chip.

Base Die Transition to Logic Process

ItemBefore HBM3EHBM4Change
Base Die Process12nm Planar5nm/4nm FinFETLogic process shift
Base Die RoleI/O, basic controlPHY + ECC + custom logicExpanded function
ManufacturingMemory fab productionTSMC and foundriesExternal outsourcing
PHY Channel Length~6mm~2mm3x shorter
Power EfficiencyBaseline~40% improvementMajor improvement

As the base die process transitions from 12nm Planar to 5nm/4nm FinFET, the PHY (Physical Layer) circuit channel length has been dramatically reduced from 6mm to approximately 2mm. This simultaneously achieves reduced power consumption and lower latency through shorter signal transmission distances.

[Standard HBM vs Custom HBM Architecture Comparison]

  ┌──── Standard HBM (sHBM) ────┐    ┌──── Custom HBM (cHBM) ────┐
  │                              │    │                            │
  │  ┌─────────────────────┐    │    │  ┌─────────────────────┐  │
  │  │    DRAM Die Stack    │    │    │  │    DRAM Die Stack    │  │
   (8-Hi / 12-Hi)    │    │    │     (12-Hi / 16-Hi)   │  │
  │  └─────────────────────┘    │    │  └─────────────────────┘  │
  │  ┌─────────────────────┐    │    │  ┌─────────────────────┐  │
  │  │   Base Die (12nm)    │    │    │  │  Base Die (5nm/4nm)  │  │
  │  │                      │    │    │  │                      │  │
  │  │  ┌──────┐ ┌──────┐  │    │    │  │  ┌──────┐ ┌──────┐  │  │
  │  │  │ PHY  │ │ ECC  │  │    │    │  │  │ PHY  │ │ ECC  │  │  │
  │  │  └──────┘ └──────┘  │    │    │  │  └──────┘ └──────┘  │  │
  │  │                      │    │    │  │  ┌──────┐ ┌──────┐  │  │
  (Basic I/O only)    │    │    │  │  │Custom│ │Near- │  │  │
  │  │                      │    │    │  │  │Logic │ │Memory│  │  │
  │  │                      │    │    │  │  (per  │ │Proc.   │  │
  │  │                      │    │    │  │  │client│ │      │  │  │
  │  └─────────────────────┘    │    │  │  └──────┘ └──────┘  │  │
  │                              │    │  └─────────────────────┘  │
  └──────────────────────────────┘    └────────────────────────────┘

    * sHBM: Standardized I/O interface      * cHBM: Customer-specific logic integration
    * High versatility                      * Optimized linkage with GPU/ASIC
    * Relatively lower cost                 * Near-Memory Processing possible

sHBM vs cHBM Detailed Comparison

CategorysHBM (Standard HBM)cHBM (Custom HBM)
Base Die DesignJEDEC standard, universalReflects customer (NVIDIA, Google, etc.) requirements
Process Node12nm+ (memory process)5nm/4nm (logic foundry process)
Custom LogicNoneData preprocessing, compression, format conversion, etc.
PHY OptimizationGeneral-purpose PHYOptimized for GPU/ASIC interface
Near-Memory ComputingNot possiblePossible
Development CostRelatively lowHigh (per-customer NRE incurred)
Lead TimeRelatively shortLonger (co-design required)
Target CustomersMultiple general customersLarge customers like NVIDIA, Google, Amazon

Near-Memory Computing: A Paradigm Shift in Data Movement

The most innovative concept in cHBM is Near-Memory Computing (also known as Near-Memory Processing, NMP). In current AI accelerator systems, the GPU reads data from HBM to fetch it to GPU cores for computation, then writes results back to HBM. This data movement process accounts for a significant portion of total power consumption.

In cHBM, some data preprocessing and memory management functions are performed directly in the base die inside the HBM stack. This enables:

  1. Reduced GPU-to-memory data movement — energy savings
  2. Reduced latency — less time the GPU spends waiting
  3. Distributed computational load from GPU cores — improved overall system efficiency
  4. Reduced data center power consumption — improved TCO (Total Cost of Ownership)

The Future of Custom HBM: Beyond 2027

Currently, cHBM is being developed through close co-design between NVIDIA and SK Hynix/Samsung. Starting in 2027, hyperscalers like Google, Amazon, and Microsoft are expected to directly commission custom HBM optimized for their proprietary AI chips (TPU, Trainium, Maia, etc.). This will mark the turning point where HBM evolves from a simple memory module into a customer-specific computing unit.


[Takeaway 4] SK Hynix's Defense vs Samsung and Micron's Counterattack

The Three-Way Structure: Three Axes of the HBM War

The 2026 HBM market features fierce competition among SK Hynix, Samsung Electronics, and Micron. Each company's strategy is fundamentally different, and these differences determine the market landscape.

[2026 HBM Market Share Forecast]

SK Hynix  ████████████████████████████████████████████████████  54%
Samsung   ████████████████████████████  28%
Micron    ██████████████████  18%

(Source: Comprehensive market analysis)

SK Hynix: "The King of AI Memory"

SK Hynix surpassed Samsung Electronics in annual operating profit for the first time in history in 2025, establishing itself as the memory champion of the AI era. As of January 2026, it reportedly secured approximately 70% of NVIDIA Vera Rubin platform HBM4 orders.

SK Hynix's Core Competitive Advantages

Strategic PillarDetails
MR-MUF TechProprietary bonding tech with 20%+ yield advantage. MR-MUF maintained even for 16-Hi
TSMC Alliance"One Team" strategic partnership. TSMC manufactures base die at 5nm
P&T7 Investment$13B (19 trillion KRW) investment in Cheongju, building world's largest HBM packaging plant
NVIDIA Lock-inSecured ~70% of Vera Rubin HBM4 orders. Near-monopoly share
Vertical IntegrationM15X production line linked with P&T7; integrated DRAM manufacturing to stacking to testing

SK Hynix's P&T7 factory broke ground in April 2026, targeting full operation by late 2027. By integrating with the adjacent M15X production line, it will build a "Super-Fab" system that handles everything from DRAM wafer fabrication to 16-layer vertical stacking in one location.

Samsung Electronics: The "One-Stop Shop" Strategy

Samsung Electronics temporarily fell to third place in the HBM market in 2025, but launched a strong counterattack in 2026. Samsung's Semiconductor CEO Jeon Young-hyun stated that "customers have evaluated that 'Samsung is back.'"

Samsung's Differentiation Strategy

Strategic PillarDetails
1c DRAM (6th-gen 10nm)Latest 1c process. 40% energy efficiency improvement vs 1b
In-house FoundryWorld's only company integrating memory + foundry + packaging
4nm Logic DieManufactures HBM4 base die with in-house foundry's 4nm process
Turnkey SolutionDesign to manufacturing to packaging to testing — all within a single company
Aggressive ExpansionPlans to expand production capacity by ~50% in 2026
3x HBM RevenueTargeting 3x or more HBM revenue in 2026 vs 2025

Samsung's "one-stop shop" strategy leverages the structural advantage of being the only company in the world that possesses advanced foundry (4nm), a memory business division, and advanced packaging facilities under a single corporate umbrella. This reduces supply chain risks and shortens the development cycle from base die design to final packaging.

Samsung announced in February 2026 that HBM4 passed NVIDIA's Rubin platform verification, claiming it shipped commercial HBM4 as an industry first. This is an important milestone in curbing SK Hynix's dominance.

Micron: "The Avengers of Technological Innovation"

Micron has the lowest HBM market share among the three companies but is rapidly catching up through technological differentiation.

Micron's Core Strategy

Strategic PillarDetails
$20B CapexFY2026 capital expenditure expanded to $20B (up from $18B, +11%)
EUV 1-gammaIndustry-first EUV lithography-based 1-gamma node adoption
12-Hi HBM4 Samples36GB capacity, 2.8 TB/s bandwidth, 11 Gbps pin speed
Bandwidth LeadershipOver 60% bandwidth increase vs HBM3E, 20% energy efficiency improvement
2026 Supply Sold OutTargeting HBM annual revenue run-rate of ~$8B
Production TimelineHBM4 high-yield mass production targeting Q2 2026

Micron's biggest differentiator is its EUV (Extreme Ultraviolet) lithography-based 1-gamma DRAM node. While SK Hynix and Samsung rely on DUV (Deep UV)-based multi-patterning, Micron aggressively adopts EUV to achieve higher density and performance.

Micron's 12-Hi HBM4 samples achieved 2.8 TB/s bandwidth and 11 Gbps pin speed, demonstrating performance exceeding the JEDEC standard. This corresponds to a transfer rate of approximately 7.85 GT/s on the 2048-bit interface.

Comprehensive 3-Company Strategy Comparison

Comparison ItemSK HynixSamsungMicron
2026 HBM Share (E)~54%~28%~18%
NVIDIA Vera Rubin Share~70%~15-20%~10-15%
Core Bonding TechMR-MUF (proprietary)TC-NCF to MR-MUFMR-MUF
Base Die FoundryTSMC 5nmSamsung Foundry 4nmTSMC
DRAM Process1b+1c (6th-gen 10nm)1-gamma (EUV)
16-Hi Mass Production2026 H12026 H1-H22026 H2
Key InvestmentP&T7 ($13B)50% capacity expansion$20B Capex
Differentiation PointTSMC alliance + yieldOne-stop turnkeyEUV 1-gamma

[Takeaway 5] HBM vs GDDR: Why Doesn't My Gaming PC Have HBM?

"Why Don't We Use the World's Best Memory Everywhere?"

If HBM is such superior memory, why do our gaming graphics cards still use GDDR? To answer this question, we must understand the fundamental differences in cost structure, physical design, and use cases.

Cost: The Price of TSV and 3D Stacking

The reason HBM is 4-5x more expensive than GDDR is clear:

Cost FactorHBMGDDR
Die StackingTSV + 3D stack (8-16 layers)Single die (no stacking)
InterposerSilicon interposer required (2.5D)Not needed (direct PCB mount)
Wafer Thinning30-50um (extreme precision)Not needed
TestingIndividual die + full stack dual testingSingle die testing
Bonding TechMR-MUF/TC-NCF (high cost)Standard soldering
Lead Time3-5 monthsA few weeks
Yield ManagementIf even 1 of 16 layers is defective, entire stack is scrappedIndividual die yield

The price of a single HBM3E memory module could purchase enough GDDR7 memory for roughly 10 graphics cards. The difference in GDDR7 cost in an RTX 5090 versus HBM3 cost in an H100 is tens of times greater.

Architecture Comparison: Vertical vs Horizontal

[HBM vs GDDR Physical Structure Comparison]

      ┌── HBM ──┐              ┌── GDDR ──┐

      ┌────────┐                 ┌───┐ ┌───┐ ┌───┐ ┌───┐
      │Stack 16│                 │   │ │   │ │   │ │   │
      │Stack 15│                 │ G │ │ G │ │ G │ │ G...   │                 │ D │ │ D │ │ D │ │ D      │Stack 2 │                 │ D │ │ D │ │ D │ │ D      │Stack 1 │                 │ R │ │ R │ │ R │ │ R      │Base Die│                 │   │ │   │ │   │ │   │
      └───┬────┘                 └─┬─┘ └─┬─┘ └─┬─┘ └─┬─┘
          │                        │     │     │     │
    ┌─────┴─────┐              ┌───┴─────┴─────┴─────┴───┐
Interposer │              │         PCB    └─────┬─────┘              │                           │
          │                     │    ┌────────────┐        │
    ┌─────┴─────┐              │    │    GPU     │        │
GPU     │              │    │            │        │
    └───────────┘              │    └────────────┘        │
                                └───────────────────────────┘

    * HBM: Right next to GPU, on interposer   * GDDR: Around GPU, distributed on PCB
    * Ultra-wide (2048-bit) + short distance   * High clock (32-36 Gbps) + long distance
    * Low power, high bandwidth                * Relatively higher power, high clock speed

Performance Comparison: Bandwidth vs Clock Speed

ItemHBM4 (16-Hi)GDDR7Comparison
Interface Width2048-bit32-bit (per chip)HBM is 64x wider
Per-pin Speed6.4~8.0 Gbps32~36 GbpsGDDR is 4-5x faster
Per Stack/Chip BW1.62.0 TB/s~36 GB/sHBM is 50x+ more
System Bandwidth~13+ TB/s (8 stacks)~1.8 TB/s (512-bit bus)HBM is 7x+ more
Power Eff. (pJ/bit)~3.5 pJ/bit~8-10 pJ/bitHBM is 2-3x more efficient
Capacity (per GPU)288 GB (Rubin)32 GB (RTX 5090)HBM is 9x more
ModulationNRZPAM3GDDR uses more advanced
Price (per GB)$20-30/GB~$3-5/GBGDDR is 6-10x cheaper

Bifurcation of Use Cases

In conclusion, HBM and GDDR are the same "memory" but designed for completely different markets:

HBM's Domain: AI Data Centers / HPC

  • Training ultra-large AI models: Hundreds of GB of model parameters resident in memory
  • Large-scale inference: Processing thousands of simultaneous requests
  • Core value: Bandwidth + Capacity + Power Efficiency
  • Cost tolerance: GPU costs $30,000-$40,000 each — thousands of dollars in memory cost is acceptable

GDDR's Domain: Gaming / Consumer GPUs / Edge Inference

  • Real-time rendering: Reading and writing frame buffers at high speed
  • Consumer price range: GPU is $500-$2,000 — memory cost must stay within a few hundred dollars
  • Core value: High clock speed + Low cost + Versatility
  • Edge AI: GDDR is more cost-effective for inference with smaller models
[Memory Positioning by Use Case]

         CostGDDR7
              │  ● Gaming GPUs
              │  ● Consumer electronics
              │  ● Edge inference
              │─────────────────── Cost efficiency boundary
HBM4
              │  ● AI training/inference
              │  ● Data centers
              │  ● HPC/scientific computing
              │  ● LLM serving
              └────────────────────→ Bandwidth requirement
            Low                    High

This bifurcation structure is likely to persist going forward. However, with the emergence of new standards like SPHBM4 (Standard Package HBM4), HBM variants mountable on standard organic substrates could emerge to target the mid-market of edge AI servers. JEDEC is currently developing the SPHBM4 standard, aiming to deliver HBM4-level performance in a reduced pin count package.


Comprehensive HBM Generation Comparison Table

Here is a summary of HBM technology evolution at a glance:

GenerationReleasePin SpeedInterface WidthBW per StackMax StackMax Cap.Key Products
HBM20131.0 Gbps1024-bit128 GB/s4-Hi4 GBAMD Fiji (R9 Fury)
HBM220162.0 Gbps1024-bit256 GB/s8-Hi8 GBNVIDIA V100, AMD MI25
HBM2E20203.6 Gbps1024-bit460 GB/s8-Hi16 GBNVIDIA A100, AMD MI200
HBM320226.4 Gbps1024-bit819 GB/s12-Hi48 GBNVIDIA H100
HBM3E20248.0-9.2 Gbps1024-bit1,229 GB/s12-Hi36 GBNVIDIA H200, B200
HBM420266.4-8.0 Gbps2048-bit1,600-2,000 GB/s16-Hi64 GBNVIDIA Rubin
HBM4E2027(E)TBD2048-bit2,000+ GB/s16-20-Hi96+ GBNVIDIA Feynman(E)
[HBM Bandwidth Evolution by Generation]

Bandwidth (GB/s per stack)
    ^
2000│                                          ████ HBM4
    │                                          ████
1500│                                          ████
    │                                   ████   ████
1200│                                   ████   ████
    │                                   ████   ████ HBM3E
 800│                            ████   ████   ████
    │                            ████   ████   ████ HBM3
 460│                     ████   ████   ████   ████
    │                     ████   ████   ████   ████ HBM2E
 256│              ████   ████   ████   ████   ████
    │              ████   ████   ████   ████   ████ HBM2
 128│       ████   ████   ████   ████   ████   ████
    │       ████   ████   ████   ████   ████   ████ HBM
    └───────┴──────┴──────┴──────┴──────┴──────┴────→
          2013   2016   2020   2022   2024   2026

A notable point is that HBM4's per-pin speed (6.4-8.0 Gbps) is actually lower than or similar to HBM3E (8.0-9.2 Gbps). This is because HBM4 adopted the strategy of doubling the interface width (1024 to 2048-bit) instead of increasing clock speed. Running a wider bus at lower clocks greatly improves power efficiency and makes it easier to ensure signal integrity.


Technology Roadmap: The Future of HBM (2026-2030)

[HBM Technology Roadmap Timeline]

2026         2027          2028          2029          2030
  │           │             │             │             │
  ▼           ▼             ▼             ▼             ▼
┌─────┐   ┌──────┐     ┌──────┐     ┌──────┐     ┌──────┐
HBM4 │   │HBM4E │     │ HBM5 │     │HBM5E │     │ HBM6│     │   │      │     │      │     │      │     │      │
16-Hi│16-20 │     │20-Hi │     │20-24 │     │24+Hi│     │   │ Hi   │     │      │     │ Hi   │     │      │
│2TB/s│   │2+TB/s│     │2+TB/s│     │3+TB/s│     │4+TB/s│
│     │   │      │     │      │     │      │     │      │
MR-  │   │Hybrid│     │Hybrid│     │Hybrid│     │Embedd│
MUF  │   │Bond  │     │Bond  │     │Bond  │     │Cool  │
│     │   │Intro │     │Full  │     │Mature│     │Intro?└─────┘   └──────┘     └──────┘     └──────┘     └──────┘
  │           │             │             │             │
  ├── TSMC 3nm ──┤          │             │             │
  │           ├── TSMC 2nm ──────┤        │             │
  │           │             ├── TSMC A16 ──────┤        │
  │           │             │             ├── TSMC 1.4nm─┤
  │           │             │             │             │
  ├─ NVIDIA Rubin ──┤       │             │             │
  │           ├─ Feynman(?) ─────┤        │             │

2027: HBM4E - The Dawn of Hybrid Bonding

HBM4E targets mass production in the second half of 2027, with up to 20-layer stacking and 96-120 GB capacity expected. The key technology change is the full-scale introduction of hybrid bonding. By eliminating micro-bumps and switching to Cu-Cu direct bonding:

  • TSV pitch can be further reduced for improved I/O density
  • Reduced bonding height enables compliance with the 775um height limit even at 20 layers
  • Reduced thermal resistance for improved heat dissipation

2028-2029: HBM5 - A New Chapter of 2+ TB/s

HBM5 is expected to fully adopt Wafer-to-Wafer (W2W) hybrid bonding. With 20-Hi stacking, it is projected to deliver over 2 TB/s bandwidth per stack and 96-120 GB capacity. Power per stack will increase to approximately 120W, requiring innovative thermal management technologies.

Beyond 2030: The Arrival of Embedded Cooling

Further in the future, technology to embed micro-channel cooling inside HBM stacks is being researched. This approach forms microscopic coolant fluid channels between DRAM dies, removing heat directly from inside the stack. This is expected to enable stacking beyond 24 layers while solving thermal challenges.


Investment Implications: Opportunities and Risks in the Memory Supercycle

Key Beneficiary Analysis

CompanyTickerKey Investment PointsRisks
SK Hynix000660.KSHBM market #1, NVIDIA 70% share, BofA Top PickValuation burden, NVIDIA dependency
Samsung005930.KSOne-stop shop, 1c DRAM, foundry synergyHBM technology gap, yield issues
MicronMU (NASDAQ)EUV 1-gamma, $20B Capex, US-based production3rd in market share, potential HBM4 production delays
NVIDIANVDA (NASDAQ)AI GPU market dominance, Vera Rubin platformHigh valuation, competition (AMD, custom ASICs)
TSMCTSM (NYSE)HBM base die foundry, unmatched process technologyGeopolitical risk (Taiwan), CoWoS capacity bottleneck
ASMLASML (NASDAQ)EUV lithography monopoly, High-NA EUVTechnology dependency, China export restrictions
Hanmi Semi042700.KSHBM TC bonder equipment, MR-MUF equipment supplySingle-customer risk (SK Hynix)

Investment Themes by Value Chain

[HBM Value Chain Investment Map]

[Design/IP]                    [Manufacturing]               [Packaging/Testing]
  │                              │                              │
  ├── Rambus (PHY IP)            ├── SK Hynix (DRAM)            ├── SK Hynix (MR-MUF)
  ├── Synopsys (EDA)             ├── Samsung (DRAM)             ├── Samsung (TC-NCF)
  ├── Cadence (EDA)              ├── Micron (DRAM)              ├── TSMC (CoWoS)
  │                              │                              ├── ASE/SPIL
  │                              │                              │
[Equipment/Materials]           [GPU/ASIC Customers]           [End Consumers]
  │                              │                              │
  ├── ASML (EUV litho)           ├── NVIDIA (Rubin)             ├── Microsoft (Azure)
  ├── Tokyo Electron (CVD)       ├── AMD (MI400)                ├── Google (TPU)
  ├── Hanmi Semi (TC Bonder)     ├── Intel (Falcon Shores)      ├── Amazon (Trainium)
  ├── Namics (EMC material)      ├── Broadcom (custom)          ├── Meta (MTIA)
  ├── BESI (Hybrid Bonder)       │                              │

Risks to Watch for When Investing

  1. Cycle peak risk: As BofA calls it "the biggest supercycle since the 1990s," the possibility of a decline after the peak exists. Some analysts warn that price adjustments could come after 2026 due to intensifying competition and capacity expansion
  2. Technology transition risk: Potential inventory adjustments during the transition from HBM4 to HBM4E
  3. Geopolitical risk: US-China tech conflict, Taiwan risk (TSMC), Korean semiconductor export regulations, etc.
  4. Demand volatility: Changes in AI investment cycles, potential hyperscaler Capex reductions
  5. Technological alternatives: Emergence of technologies like CXL (Compute Express Link) memory and Processing-in-Memory (PIM) that could replace or complement HBM

Conclusion: The Paradigm Shift Toward 'Memory-as-Compute'

HBM4: Not Just a Generational Update, But an Inflection Point

HBM4 in 2026 is not simply "the next version after HBM3E." The 2x expansion of interface width, the transition of the base die to a logic process, and the emergence of custom HBM represent an inflection point where the fundamental role of memory is changing.

In the past, memory was a passive storage device that handed over data when the CPU/GPU requested it. However, HBM4's logic base die, Near-Memory Computing, and cHBM's custom logic integration show that memory is evolving into an active compute participant.

Memory-as-Compute: A New Computing Paradigm

[The Computing Paradigm Shift]

   Past (CPU-centric)            Present (GPU + HBM)          Future (Memory-as-Compute)
  ┌──────────────┐           ┌──────────────┐           ┌──────────────┐
CPU      │           │     GPU      │           │  GPU + cHBM  │
    (Compute-  (Parallel  (Unified  │   centric)   │           │   compute)   │           │   compute)  │  ┌────────┐  │           │  ┌────────┐  │           │  ┌────────┐  │
  │  │Compute │←─┼──slow──→  │  │Compute │←─┼──fast──→  │  │Compute │  │
  │  └────────┘  │  bus      │  └────────┘  │  bus      │  └───┬────┘  │
  └──────────────┘           └──────────────┘           │     │       │
         ↕                          ↕                    │  ┌──┴───┐  │
      Slow memory                HBM (ultra-fast)        │  │NMP   │  │
  ┌──────────────┐           ┌──────────────┐           │  │Logic │  │
DRAM      │           │  HBM3/HBM4   │           │  └──┬───┘  │
    (Passive (High-speed   │           │     │      │
  │   storage)   │           │  storage)     │           │  ┌──┴───┐  │
  └──────────────┘           └──────────────┘           │  │Memory│  │
                                                         │  │Array │  │
         Data movement is        Data movement is        │  └──────┘  │
         the biggest             significantly           └──────────────┘
         bottleneck              improved                 Data movement minimized
                                                          + in-memory computation

In this paradigm, memory no longer just "stores." By performing computation where the data resides, it seeks to overcome the fundamental limitation of von Neumann architecture — the "cost of data movement."

Roadmap: The World After HBM5

TimeframeGen.StackingBandwidthKey Technology Transitions
2026HBM412-16-Hi~2 TB/s2048-bit interface, logic base die
2027HBM4E16-20-Hi2+ TB/sHybrid bonding introduction, 96GB+
2028-29HBM520+ Hi2+ TB/sW2W hybrid bonding, 120GB+
2030+HBM624+ Hi4+ TB/sEmbedded cooling, 240GB+

Final Message: The Future of Semiconductors Is Determined by "Memory"

The "memory wall" that Professor Wulf warned about in 1995 is, thirty years later, meeting the greatest-ever computing demand in AI and fundamentally reshaping the landscape of the industry. In the past, the core question of the semiconductor industry was "how fast a processor can we build?" But the question of 2026 is this:

"How fast and how much data can we feed to the processor?"

The answer to this question is HBM, and SK Hynix, Samsung Electronics, and Micron are competing with trillions of won in investment and technology over this answer. HBM4 is the front line of that competition and a historic turning point where memory ascends from a mere component to a strategic core asset of the AI era.


References

  1. JEDEC, "JEDEC and Industry Leaders Collaborate to Release JESD270-4 HBM4 Standard", jedec.org, 2025
  2. JEDEC, "JEDEC Prepares SPHBM4 Standard to Deliver HBM4-Level Throughput with Reduced Pin Count", jedec.org, 2025
  3. Tom's Hardware, "JEDEC finalizes HBM4 memory standard with major bandwidth and efficiency upgrades", tomshardware.com, 2025
  4. NVIDIA Developer Blog, "Inside the NVIDIA Rubin Platform: Six New Chips, One AI Supercomputer", developer.nvidia.com, 2026
  5. Tom's Hardware, "NVIDIA's Vera Rubin platform in depth", tomshardware.com, 2026
  6. VideoCardz, "NVIDIA Vera Rubin NVL72 Detailed", videocardz.com, 2026
  7. SK hynix Newsroom, "2026 Market Outlook: SK hynix's HBM to Fuel AI Memory Boom", news.skhynix.com, 2026
  8. SK hynix Newsroom, "CES 2026: SK hynix Showcases Next-Gen AI Memory Innovations", news.skhynix.com, 2026
  9. TrendForce, "SK hynix May Stick With MR-MUF for HBM4 16-High", trendforce.com, 2026
  10. TrendForce, "NVIDIA Fuels HBM4 Race: 12-Layer Ramps, 16-Layer Push", trendforce.com, 2026
  11. TrendForce, "Memory Wall Bottleneck: AI Compute Sparks Memory Supercycle", trendforce.com, 2026
  12. Samsung Global Newsroom, "Samsung Ships Industry-First Commercial HBM4", news.samsung.com, 2026
  13. Seeking Alpha, "SK hynix secures 70% of Nvidia's HBM orders for Vera Rubin", seekingalpha.com, 2026
  14. CNBC, "SK Hynix overtakes Samsung in annual profit for the first time", cnbc.com, 2026
  15. Tom's Hardware, "Micron starts to ship samples of HBM4 memory — 36 GB capacity and bandwidth of 2 TB/s", tomshardware.com, 2025
  16. TrendForce, "Micron Hikes CapEx to $20B with 2026 HBM Supply Fully Booked", trendforce.com, 2025
  17. Tom's Hardware, "SK hynix to spend $13 billion on the world's largest HBM memory assembly plant", tomshardware.com, 2026
  18. Bloomberg, "SK Hynix Plans to Invest $13 Billion in New Chip Packaging Plant", bloomberg.com, 2026
  19. Omdia, "AI drives semiconductor revenues past $1 trillion for the first time in 2026", omdia.tech.informa.com, 2026
  20. Tom's Hardware, "Semiconductor industry on track to hit $1 trillion in sales in 2026, SIA predicts", tomshardware.com, 2026
  21. Semi Engineering, "Speeding Down Memory Lane With Custom HBM", semiengineering.com, 2025
  22. Korea Herald, "Memory supercycle builds as HBM demand lifts Samsung, SK hynix earnings", koreaherald.com, 2026
  23. Counterpoint Research, "Global DRAM and HBM Market Share: Quarterly", counterpointresearch.com, 2025
  24. WCCFTech, "Next-Gen HBM Architecture Detailed Including HBM4, HBM5, HBM6, HBM7 & HBM8", wccftech.com, 2025
  25. Semi Engineering, "HBM4 Sticks With Microbumps, Postponing Hybrid Bonding", semiengineering.com, 2025
  26. Rambus, "High Bandwidth Memory (HBM): Everything You Need to Know", rambus.com, 2025
  27. Wikipedia, "High Bandwidth Memory", en.wikipedia.org
  28. FaceOfIT, "Comparing HBM3 vs HBM4 vs. GDDR7 Specifications for AI & HPC", faceofit.com, 2026
  29. Nomad Semi, "Deep Dive on HBM", nomadsemi.com, 2025
  30. Wm. A. Wulf & Sally A. McKee, "Hitting the Memory Wall: Implications of the Obvious", ACM SIGARCH Computer Architecture News, 1995

Quiz

Q1: What is the main topic covered in "The Peak of the AI Memory Supercycle: 5 Decisive Moments for HBM That Will Shake the 2026 Semiconductor Market"?

From HBM4 16-layer stacking technology, the emergence of custom HBM (cHBM), the strategic clash between SK Hynix, Samsung, and Micron, to the memory supercycle market outlook and HBM vs GDDR comparison — an in-depth analysis of the 5 decisive moments for High Bandwidth Memory (HB...

Q2: What is [Takeaway 1] The Biggest Boom Since the 1990s: The Return of the 'Memory Supercycle'?

Bank of America's Declaration: "The Biggest Boom Since the 1990s" Bank of America (BofA) has defined the 2026 memory semiconductor market as "the biggest supercycle since the 1990s." This is not simply a cyclical upturn, but a paradigm shift driven by structural demand changes in...

Q3: Explain the core concept of [Takeaway 2] Breaking the 16-Layer (16-Hi) Barrier: The Magic of One-Third the Thickness of a Human Hair.

CES 2026: SK Hynix Unveils 16-Hi HBM4 In January 2026, at CES 2026, SK Hynix unveiled the world's first 16-layer stacked (16-Hi) HBM4, shocking the industry. This product delivers 48GB or more capacity and over 2 TB/s bandwidth from a single stack.

Q4: What are the key aspects of [Takeaway 3] The Era of 'Custom HBM (cHBM)': Memory Embraces Logic?

The Shift from Standard HBM to Custom HBM What fundamentally distinguishes HBM4 from previous generations is the innovation in the base die. In the past, the HBM base die contained only simple I/O interfaces and basic control logic.

Q5: What are the key differences in [Takeaway 4] SK Hynix's Defense vs Samsung and Micron's Counterattack?

The Three-Way Structure: Three Axes of the HBM War The 2026 HBM market features fierce competition among SK Hynix, Samsung Electronics, and Micron. Each company's strategy is fundamentally different, and these differences determine the market landscape.