Split View: 2026년 반도체 산업 동향 — 1나노 공정, HBM4, AI 칩 전쟁, 미중 갈등
2026년 반도체 산업 동향 — 1나노 공정, HBM4, AI 칩 전쟁, 미중 갈등
들어가며
2026년, 반도체 산업은 전례 없는 변곡점에 서 있습니다. 삼성전자가 1나노미터(1nm) 공정 로드맵을 공식 발표했고, TSMC는 2나노(N2) 양산을 본격화했습니다. NVIDIA는 Blackwell 아키텍처 기반 B200을 출하하며 AI 컴퓨팅 시장을 압도하고 있고, 인텔은 구글과의 파운드리 대형 계약으로 재기의 신호탄을 쏘아 올렸습니다.
이 글에서는 2026년 1분기까지의 반도체 산업 주요 동향을 10개 핵심 주제로 나누어 심층 분석합니다. 파운드리 공정 경쟁부터 HBM 메모리 전쟁, AI 칩 스타트업의 부상, 미중 갈등의 최신 국면, 그리고 투자자 관점까지 폭넓게 다루겠습니다.
목차
- 삼성전자 1나노 공정 로드맵
- TSMC 2나노 양산과 파운드리 경쟁
- 인텔의 반격 -- 구글 대형 계약과 18A 공정
- NVIDIA AI 칩 -- H200, B200, Blackwell 아키텍처
- HBM 경쟁 -- SK하이닉스 HBM4, 삼성 HBM3E
- AI 칩 스타트업 -- Cerebras, Groq, SambaNova, Tenstorrent
- 미중 반도체 갈등 -- 수출 통제, CHIPS Act, 자급자족
- 패키징 혁신 -- CoWoS, 3D 적층, 칩렛 아키텍처
- 자동차 반도체 -- 자율주행 칩, EV 반도체
- 투자자 관점 -- 반도체 ETF, 주요 기업 실적 전망
1. 삼성전자 1나노 공정 로드맵
GAA 트랜지스터와 MBCFET
삼성전자는 2025년 말 GAA(Gate-All-Around) 기반 2나노 공정의 양산을 시작한 데 이어, 2026년 1분기에 1나노급 공정 로드맵을 공식 공개했습니다. 핵심은 MBCFET(Multi-Bridge Channel FET) 기술의 진화입니다.
트랜지스터 구조 진화
FinFET (7nm~3nm) GAA/MBCFET (2nm~1nm)
Gate Gate (전면 감싸기)
| / | \
+-+-+ +--+---+---+--+
|Fin| | 채널 채널 |
| | | | 채널 채널 |
+-+-+ +--+---+---+--+
Sub Sub
핀 구조 위에 게이트 나노시트를 게이트가
사방에서 감싸는 구조
GAA 구조에서는 게이트가 채널을 사방에서 감싸기 때문에 전류 제어가 훨씬 정밀해집니다. MBCFET는 여러 개의 나노시트(nanosheet)를 다리처럼 쌓아 올려 전류 용량과 전력 효율을 동시에 높이는 삼성 고유의 접근법입니다.
1나노 공정의 의미
| 항목 | 3nm (FinFET) | 2nm (GAA) | 1nm (MBCFET+) |
|---|---|---|---|
| 트랜지스터 밀도 | 약 1,700억/cm2 | 약 2,500억/cm2 | 약 4,000억/cm2 (목표) |
| 전력 효율 | 기준 | 25% 개선 | 40% 개선 (목표) |
| 동작 주파수 | 기준 | 10% 향상 | 20% 향상 (목표) |
| 양산 시점 | 2023 | 2025 | 2028~2029 (예정) |
1나노 공정이라는 명칭은 실제 물리적 게이트 길이가 1nm라는 의미가 아닙니다. 업계에서 사용하는 마케팅 노드명으로, 트랜지스터 밀도와 성능 향상을 기준으로 세대를 구분하는 것입니다.
삼성의 파운드리 전략
삼성은 TSMC와의 파운드리 격차를 줄이기 위해 다음 전략을 추진하고 있습니다.
- 수율 개선 집중: 3나노 GAA에서 겪었던 초기 수율 문제를 2나노에서 반복하지 않기 위해 사전 검증 기간 대폭 확대
- 백사이드 파워 딜리버리(BSPDN): 전력 공급선을 칩 뒷면으로 이동시켜 신호 경로 최적화
- AI 특화 공정 옵션: HPC(High Performance Computing)와 모바일 SoC를 위한 맞춤형 공정 변형 제공
2. TSMC 2나노 양산과 파운드리 경쟁
N2 공정의 현황
TSMC는 2025년 하반기부터 N2(2나노) 공정의 위험 생산(risk production)을 시작했으며, 2026년 상반기에 본격 양산 체제에 돌입했습니다. Apple의 차세대 A-시리즈 및 M-시리즈 칩이 첫 번째 N2 고객으로 알려져 있습니다.
N2P와 확장 노드
TSMC는 N2 이후 빠르게 N2P 변형을 준비하고 있습니다.
| 공정 | 특징 | 예상 양산 |
|---|---|---|
| N2 | GAA 나노시트, 첫 도입 | 2026 상반기 |
| N2P | BSPDN 적용, 전력 효율 추가 개선 | 2027 |
| A16 | N2 기반 고성능 변형 | 2027~2028 |
TSMC vs 삼성: 파운드리 점유율
2026년 기준 글로벌 파운드리 시장 점유율 추정치는 다음과 같습니다.
글로벌 파운드리 시장 점유율 (2026 Q1 추정)
TSMC ████████████████████████████████ 62%
삼성 ████████████ 12%
GlobalFoundries ██████ 6%
UMC █████ 5%
SMIC ████ 5%
기타 ██████████ 10%
TSMC의 압도적 우위는 첨단 공정(7nm 이하)에서 더욱 두드러집니다. 첨단 공정만 놓고 보면 TSMC가 90% 이상의 점유율을 차지하는 것으로 추정됩니다.
3. 인텔의 반격 -- 구글 대형 계약과 18A 공정
인텔 파운드리 서비스(IFS)의 전환점
인텔은 2024~2025년 동안 극심한 구조조정을 거쳤습니다. 파운드리 사업부 분사, 대규모 인력 감축, 그리고 공장 건설 지연 등 악재가 이어졌지만, 2026년 초 구글과의 다년간 파운드리 계약이 발표되면서 분위기가 반전되고 있습니다.
인텔 18A 공정
인텔의 18A 공정은 인텔 20A에 이은 차세대 노드로, 다음과 같은 기술이 적용됩니다.
- RibbonFET: 인텔 버전의 GAA 트랜지스터
- PowerVia: 백사이드 파워 딜리버리 기술
- 고밀도 EUV 패터닝: ASML의 High-NA EUV 장비 활용
인텔 공정 로드맵
Intel 7 Intel 4 Intel 3 Intel 20A Intel 18A
(2022) (2023) (2024) (2025) (2026)
| | | | |
FinFET FinFET FinFET RibbonFET RibbonFET
EUV 1세대 EUV 확대 EUV 최적화 + PowerVia + High-NA EUV
(GAA 도입) (TSMC N2 경쟁)
제온 6(Xeon 6) 프로세서
인텔은 서버용 제온 6 시리즈를 통해 데이터센터 시장에서의 입지를 강화하고 있습니다. 특히 P-코어(성능)와 E-코어(효율) 기반의 두 가지 제품군으로 나누어 AI 워크로드와 범용 서버 워크로드를 각각 공략하고 있습니다.
| 제품군 | 코어 유형 | 타겟 워크로드 | 경쟁 제품 |
|---|---|---|---|
| Xeon 6 P-코어 | 고성능 코어 | AI 추론, HPC | AMD EPYC Turin |
| Xeon 6 E-코어 | 고효율 코어 | 클라우드, 웹서버 | AMD EPYC Bergamo |
4. NVIDIA AI 칩 -- H200, B200, Blackwell 아키텍처
Blackwell 아키텍처 개요
NVIDIA의 Blackwell 아키텍처는 Hopper(H100/H200)의 후속으로, AI 학습 및 추론 성능을 획기적으로 끌어올렸습니다.
NVIDIA GPU 아키텍처 진화
Ampere (A100) --> Hopper (H100/H200) --> Blackwell (B100/B200)
2020 2022/2024 2024/2025
- 7nm TSMC - 4nm TSMC - TSMC 4NP/3nm
- 54B 트랜지스터 - 80B 트랜지스터 - 208B 트랜지스터
- 80GB HBM2e - 80~141GB HBM3/3E - 192GB HBM3E
- FP8 미지원 - FP8 지원 - FP4 지원
B200 GPU의 주요 사양
B200은 2025년 하반기부터 본격 출하가 시작되어 2026년 현재 대규모 데이터센터에 배치가 진행 중입니다.
| 항목 | H100 | H200 | B200 |
|---|---|---|---|
| 트랜지스터 수 | 800억 | 800억 | 2,080억 |
| 메모리 | 80GB HBM3 | 141GB HBM3E | 192GB HBM3E |
| 메모리 대역폭 | 3.35TB/s | 4.8TB/s | 8TB/s |
| FP8 성능 | 3.95 PFLOPS | 3.95 PFLOPS | 9 PFLOPS |
| FP4 성능 | 미지원 | 미지원 | 18 PFLOPS |
| TDP | 700W | 700W | 1,000W |
GB200 NVL72 -- 서버 랙 수준의 AI 슈퍼컴퓨터
NVIDIA는 B200 GPU 72개를 하나의 랙에 통합한 GB200 NVL72 시스템을 발표했습니다. 이 시스템은 NVLink 5.0을 통해 GPU 간 초고속 통신을 지원하며, 단일 랙에서 1.4 ExaFLOPS(FP4 기준)의 AI 연산 성능을 제공합니다.
NVIDIA의 시장 지배력
2026년 기준 데이터센터 AI 가속기 시장에서 NVIDIA의 점유율은 약 80%로 추정됩니다. 이는 CUDA 생태계의 압도적인 소프트웨어 해자(moat) 덕분입니다. PyTorch, TensorFlow 등 주요 AI 프레임워크가 CUDA에 최적화되어 있어 경쟁사로의 전환 비용이 매우 높습니다.
5. HBM 경쟁 -- SK하이닉스 HBM4, 삼성 HBM3E
HBM이란 무엇인가
HBM(High Bandwidth Memory)은 여러 개의 DRAM 다이를 수직으로 적층하고 TSV(Through-Silicon Via)로 연결한 고대역폭 메모리입니다. AI 워크로드에서 요구되는 엄청난 메모리 대역폭을 충족시키기 위해 필수적인 기술입니다.
HBM 구조 (단면도)
+-------------------+
| 컨트롤러 다이 |
+-------------------+
| DRAM 다이 #8 | ^
+-------------------+ | TSV (실리콘 관통 전극)
| DRAM 다이 #7 | | 으로 수직 연결
+-------------------+ |
| DRAM 다이 #6 | |
+-------------------+ |
| DRAM 다이 #5 | | 8~12단 적층
+-------------------+ |
| DRAM 다이 #4 | |
+-------------------+ |
| DRAM 다이 #3 | |
+-------------------+ |
| DRAM 다이 #2 | |
+-------------------+ |
| DRAM 다이 #1 | v
+-------------------+
| 베이스 다이 |
+-------------------+
| 인터포저 |
+---+---+---+---+---+
마이크로 범프
HBM 세대별 비교
| 세대 | 대역폭 | 용량 (단일 스택) | 적층 수 | 주요 채택 GPU |
|---|---|---|---|---|
| HBM2e | 460GB/s | 16GB | 8단 | A100 |
| HBM3 | 819GB/s | 24GB | 8단 | H100 |
| HBM3E | 1.18TB/s | 36GB | 12단 | H200, B200 |
| HBM4 | 2TB/s+ (목표) | 48GB+ | 16단 (목표) | 차세대 GPU (2026~2027) |
SK하이닉스의 선두
SK하이닉스는 HBM 시장에서 약 50% 이상의 점유율을 유지하며 선두를 달리고 있습니다. 특히 NVIDIA와의 긴밀한 협력 관계를 통해 HBM3E의 초기 물량 대부분을 확보했습니다. 2026년에는 HBM4의 샘플 출하를 목표로 개발을 진행 중입니다.
삼성의 추격
삼성전자는 HBM3E에서 SK하이닉스에 비해 양산 시점이 다소 늦었지만, 적극적인 투자와 기술 개발로 격차를 좁히고 있습니다. 특히 NVIDIA의 품질 검증(qualification)을 통과하면서 공급선 다변화 측면에서 유리한 위치를 확보했습니다.
6. AI 칩 스타트업 -- Cerebras, Groq, SambaNova, Tenstorrent
NVIDIA 대항마들
NVIDIA의 독점적 지위에 도전하는 다양한 AI 칩 스타트업이 있습니다. 이들은 각각 독특한 아키텍처 접근법으로 차별화를 시도하고 있습니다.
| 기업 | 핵심 기술 | 강점 | 주요 고객/파트너 |
|---|---|---|---|
| Cerebras | 웨이퍼 스케일 엔진(WSE-3) | 단일 칩 85만 코어, 메모리 병목 제거 | 정부 연구소, 제약 |
| Groq | LPU(Language Processing Unit) | 초저지연 추론, 예측 가능한 성능 | 클라우드 추론 서비스 |
| SambaNova | RDU(Reconfigurable Dataflow Unit) | 동적 재구성 가능 아키텍처 | 엔터프라이즈 AI |
| Tenstorrent | RISC-V 기반 AI 가속기 | 오픈소스 ISA, 확장성 | 짐 켈러 CEO의 비전 |
Cerebras WSE-3
Cerebras Systems는 반도체 설계의 통념을 깬 회사입니다. 일반적인 칩이 수 센티미터 크기인 반면, Cerebras의 WSE(Wafer Scale Engine)는 300mm 웨이퍼 전체를 하나의 칩으로 사용합니다.
일반 칩 vs Cerebras WSE
일반 GPU (약 800mm2) Cerebras WSE-3 (약 46,225mm2)
+--------+ +---------------------------+
| | | |
| 단일 | | 900,000 코어 |
| 다이 | | 44GB SRAM |
| | | 웨이퍼 전체가 하나의 칩 |
+--------+ | |
+---------------------------+
다이 면적: ~800mm2 다이 면적: ~46,225mm2 (57배)
Groq LPU
Groq은 추론(inference)에 특화된 LPU를 개발했습니다. 기존 GPU가 범용성을 추구하는 반면, Groq의 LPU는 언어 모델 추론에 최적화된 결정적(deterministic) 아키텍처를 채택하여 초저지연과 높은 처리량을 동시에 달성합니다.
Tenstorrent와 RISC-V
짐 켈러(Jim Keller)가 이끄는 Tenstorrent는 RISC-V 기반의 AI 가속기를 개발하고 있습니다. RISC-V는 오픈소스 명령어 집합 아키텍처(ISA)로, 라이선스 비용 없이 자유롭게 칩을 설계할 수 있다는 장점이 있습니다. 이는 미중 갈등 속에서 x86이나 ARM에 의존하지 않으려는 기업들에게 매력적인 대안이 됩니다.
7. 미중 반도체 갈등 -- 수출 통제, CHIPS Act, 자급자족
미국의 대중국 수출 통제
미국은 2022년부터 시작된 대중국 반도체 수출 통제를 2025~2026년에 더욱 강화했습니다.
미국 대중국 반도체 수출 통제 타임라인
2022.10 첫 수출 통제 규정 발표
| - 첨단 GPU 수출 제한 (A100, H100)
|
2023.10 규정 강화
| - 우회 수출 차단 (A800, H800도 제한)
| - 반도체 장비 수출 통제 확대
|
2024.12 추가 제한
| - HBM 메모리 수출 규제 추가
| - AI 모델 학습 클라우드 서비스 제한
|
2025~2026 현재
- ASML High-NA EUV 장비 완전 차단
- AI 칩 성능 기준 재조정
- 동맹국과의 공조 체계 강화
CHIPS Act의 성과
미국 CHIPS and Science Act(2022년 통과)는 반도체 국내 생산을 장려하기 위한 527억 달러(약 70조 원) 규모의 보조금 프로그램입니다. 2026년 현재 주요 성과는 다음과 같습니다.
- TSMC 애리조나 공장: 1단계 가동 시작, 2단계 건설 진행 중
- 삼성 텍사스 공장: 테일러(Taylor) 신규 공장 건설 진행
- 인텔 오하이오 공장: 대규모 신규 팹 건설, CHIPS Act 최대 수혜
- 마이크론 뉴욕 공장: 메모리 반도체 생산 시설 확대
중국의 자급자족 전략
중국은 미국의 수출 통제에 대응하여 반도체 자급자족을 가속화하고 있습니다.
| 분야 | 중국 대표 기업 | 기술 수준 (2026) | 글로벌 대비 격차 |
|---|---|---|---|
| 파운드리 | SMIC | 7nm (N+2) | 2~3세대 뒤처짐 |
| GPU | Huawei (Ascend) | Ascend 910C | NVIDIA 대비 3~4배 성능 차이 |
| EDA 도구 | Empyrean, Primarius | 28nm급 지원 | Synopsys/Cadence 대비 제한적 |
| 장비 | AMEC, Naura | DUV 수준 | EUV 장비 자체 개발 중 |
중국은 레거시 반도체(28nm 이상)에서는 빠르게 자급률을 높이고 있지만, 첨단 공정에서는 여전히 ASML의 EUV 장비 접근이 차단되어 있어 큰 제약이 존재합니다.
8. 패키징 혁신 -- CoWoS, 3D 적층, 칩렛 아키텍처
왜 패키징이 중요한가
반도체 미세 공정의 물리적 한계가 다가오면서, 패키징 기술이 성능 향상의 새로운 열쇠로 부상했습니다. 더 작은 트랜지스터를 만드는 것만으로는 한계가 있기 때문에, 여러 칩을 효율적으로 연결하는 첨단 패키징이 핵심 기술이 되었습니다.
CoWoS (Chip on Wafer on Substrate)
TSMC의 CoWoS는 현재 가장 널리 사용되는 첨단 패키징 기술입니다. GPU 다이와 HBM 다이를 실리콘 인터포저 위에 나란히 배치하여 초고속 통신을 가능하게 합니다.
CoWoS 패키징 단면도
GPU 다이 HBM 스택 HBM 스택
+---------+ +----+ +----+
| | |DRAM| |DRAM|
| 로직 | |DRAM| |DRAM|
| 다이 | |DRAM| |DRAM|
| | |BASE| |BASE|
+----+----+ +--+-+ +-+--+
| | |
+----------+-----------------+----------+--------+
| 실리콘 인터포저 |
+------------------------------------------------+
| 기판 (Substrate) |
+------------------------------------------------+
칩렛(Chiplet) 아키텍처
칩렛은 하나의 거대한 모놀리식 다이 대신, **기능별로 분리된 작은 다이(칩렛)**를 패키징 기술로 연결하는 접근법입니다.
칩렛의 장점은 다음과 같습니다.
- 수율 향상: 작은 다이는 큰 다이보다 결함 확률이 낮음
- 유연한 구성: 용도에 따라 칩렛 조합을 변경 가능
- 이종 통합: 서로 다른 공정(예: CPU는 3nm, I/O는 7nm)을 하나의 패키지에 통합
- 비용 절감: 모든 기능을 최첨단 공정으로 만들 필요 없음
AMD의 EPYC 서버 프로세서와 인텔의 Meteor Lake가 칩렛 아키텍처의 대표적인 사례입니다.
3D 적층 기술
2D 배치를 넘어 칩을 수직으로 쌓는 3D 적층 기술도 빠르게 발전하고 있습니다. TSMC의 SoIC(System on Integrated Chips)와 인텔의 Foveros가 대표적입니다.
2D 패키징 vs 3D 적층
2D 배치 (CoWoS 방식) 3D 적층 (SoIC/Foveros)
+----+ +----+ +----+ +----+
| 칩A | | 칩B | | 칩C | | 칩C |
+----+ +----+ +----+ +----+
+-----------------------+ | 칩B |
| 인터포저 | +----+
+-----------------------+ | 칩A |
+----+
수평 연결 수직 연결
면적 증가 면적 절약, 대역폭 증가
9. 자동차 반도체 -- 자율주행 칩, EV 반도체
자동차 산업의 반도체 수요 폭발
전기차(EV)와 자율주행 기술의 발전으로 자동차 한 대에 들어가는 반도체의 양이 급증하고 있습니다.
| 차량 유형 | 반도체 탑재량 (평균) | 핵심 반도체 |
|---|---|---|
| 내연기관차 | 약 200~300개 | MCU, 센서 |
| 전기차 | 약 1,000~2,000개 | 파워 반도체, MCU, 센서 |
| L4 자율주행차 | 약 3,000개 이상 | AI SoC, LiDAR IC, 레이더 IC |
자율주행 AI 칩 경쟁
자율주행 AI 연산을 위한 칩 경쟁이 치열합니다.
| 기업 | 제품 | AI 연산 성능 | 주요 특징 |
|---|---|---|---|
| NVIDIA | DRIVE Thor | 2,000 TOPS | FP8 지원, 통합 차량 컴퓨터 |
| Qualcomm | Snapdragon Ride Flex | 기밀 | 인포테인먼트 + ADAS 통합 |
| Mobileye | EyeQ Ultra | 176 TOPS | 카메라 기반 비전 특화 |
| Tesla | HW5 (자체 설계) | 비공개 | FSD 학습/추론 최적화 |
파워 반도체 -- SiC와 GaN
전기차의 핵심 부품인 인버터, 충전기에는 파워 반도체가 필수입니다. 기존 실리콘(Si) 기반에서 탄화규소(SiC)와 질화갈륨(GaN) 기반의 화합물 반도체로 전환이 가속되고 있습니다.
파워 반도체 소재 비교
특성 Si SiC GaN
에너지 효율 기준 15~20% 20~30% 향상
동작 온도 150도 200도 200도 이상
스위칭 속도 기준 5~10배 10~100배
비용 1배 3~5배 2~4배
주요 용도 범용 EV 인버터 충전기, 서버 전원
10. 투자자 관점 -- 반도체 ETF, 주요 기업 실적 전망
반도체 관련 주요 ETF
| ETF | 운용사 | 주요 보유 종목 | 2025년 수익률 |
|---|---|---|---|
| SMH | VanEck | NVIDIA, TSMC, ASML, AMD | 약 35% |
| SOXX | iShares | NVIDIA, Broadcom, AMD, QCOM | 약 28% |
| XSD | SPDR | 균등 가중 (소형주 포함) | 약 18% |
주요 기업 실적 전망 (2026년)
2026년 반도체 기업들의 실적은 AI 수요 지속 여부에 크게 좌우됩니다.
성장 기대 기업
- NVIDIA: AI 데이터센터 투자 사이클 지속으로 매출 성장 전망. B200 본격 출하가 실적 견인
- SK하이닉스: HBM3E/HBM4 수요 폭발로 DRAM 부문 사상 최대 실적 예상
- TSMC: N2 양산과 CoWoS 패키징 수요 급증으로 견조한 성장
주시 필요 기업
- 인텔: 파운드리 사업 적자 지속 vs 구글 계약 모멘텀
- 삼성전자: HBM 시장 점유율 회복 속도가 관건
- AMD: AI GPU(MI350) 시장 점유율 확대 여부
반도체 산업 사이클
반도체 산업은 전통적으로 3~4년 주기의 사이클을 보입니다.
반도체 산업 사이클 (매출 성장률 추이)
|
40% | *
| * *
30% | * *
| *
20% | * *
| *
10% | * *
| *
0% |*--------------------------*--------
| *
-10% | *
|
2020 2021 2022 2023 2024 2025 2026
팬데믹 호황 재고조정 회복 AI붐 AI지속
2026년은 AI 투자 사이클의 정점에 가까워지고 있다는 분석과, 아직 초기 단계라는 분석이 공존하고 있습니다.
마무리 -- 2026년 반도체 산업 핵심 키워드
2026년 반도체 산업의 핵심 키워드를 정리하면 다음과 같습니다.
- 1nm 공정 경쟁: 삼성과 TSMC의 로드맵 경쟁 본격화
- HBM4: 차세대 메모리 기술의 상용화 임박
- Blackwell: NVIDIA의 시장 지배력 강화
- 칩렛 아키텍처: 모놀리식에서 모듈형으로의 패러다임 전환
- 미중 디커플링: 기술 패권 경쟁 심화와 공급망 재편
- 자동차 반도체: SiC/GaN 화합물 반도체의 부상
- AI 칩 스타트업: NVIDIA 독점에 대한 건전한 견제
반도체는 AI, 전기차, 데이터센터, 모바일 등 거의 모든 산업의 기반 기술입니다. 이 분야의 기술 발전과 경쟁 구도를 이해하는 것은 기술 투자자뿐만 아니라 엔지니어, 정책 입안자 모두에게 중요합니다.
참고 자료
- TSMC 2026 Technology Symposium 자료
- NVIDIA GTC 2026 키노트
- 삼성전자 파운드리 포럼 2026
- Intel IFS Direct Connect 2026
- IC Insights / TrendForce 반도체 시장 리포트
- SEMI 장비 시장 보고서
- 미국 상무부 BIS 수출 통제 규정 업데이트
2026 Semiconductor Industry Trends — 1nm Process, HBM4, AI Chip Wars, US-China Tensions
Introduction
In 2026, the semiconductor industry stands at an unprecedented inflection point. Samsung has officially unveiled its 1-nanometer (1nm) process roadmap, while TSMC is ramping up mass production of its 2-nanometer (N2) process. NVIDIA dominates the AI computing market with its Blackwell-architecture B200, and Intel has fired the starting gun on its comeback with a major multi-year foundry deal with Google.
This article provides an in-depth analysis of the semiconductor industry's major developments through Q1 2026, organized into 10 key topics. We cover everything from foundry process competition and the HBM memory wars to the rise of AI chip startups, the latest phase of US-China tensions, and perspectives for investors.
Table of Contents
- Samsung 1nm Process Roadmap
- TSMC 2nm Mass Production and Foundry Competition
- Intel's Comeback -- Google Deal and 18A Process
- NVIDIA AI Chips -- H200, B200, Blackwell Architecture
- HBM Competition -- SK Hynix HBM4, Samsung HBM3E
- AI Chip Startups -- Cerebras, Groq, SambaNova, Tenstorrent
- US-China Semiconductor Conflict -- Export Controls, CHIPS Act, Self-Sufficiency
- Packaging Innovation -- CoWoS, 3D Stacking, Chiplet Architecture
- Automotive Semiconductors -- Autonomous Driving Chips, EV Semiconductors
- Investor Perspectives -- Semiconductor ETFs, Earnings Outlook
1. Samsung 1nm Process Roadmap
GAA Transistors and MBCFET
Following the start of mass production of its GAA (Gate-All-Around) based 2nm process in late 2025, Samsung officially unveiled its 1nm-class process roadmap in Q1 2026. The core technology is the evolution of MBCFET (Multi-Bridge Channel FET).
Transistor Structure Evolution
FinFET (7nm-3nm) GAA/MBCFET (2nm-1nm)
Gate Gate (wraps all around)
| / | \
+-+-+ +--+---+---+--+
|Fin| | Chan Chan |
| | | | Chan Chan |
+-+-+ +--+---+---+--+
Sub Sub
Gate sits on top Gate wraps around
of the fin nanosheets from all sides
In a GAA structure, the gate wraps around the channel on all sides, enabling far more precise current control. MBCFET stacks multiple nanosheets like bridges, simultaneously increasing current capacity and power efficiency -- Samsung's unique approach.
What 1nm Process Means
| Metric | 3nm (FinFET) | 2nm (GAA) | 1nm (MBCFET+) |
|---|---|---|---|
| Transistor Density | ~170B/cm2 | ~250B/cm2 | ~400B/cm2 (target) |
| Power Efficiency | Baseline | 25% improvement | 40% improvement (target) |
| Clock Speed | Baseline | 10% improvement | 20% improvement (target) |
| Mass Production | 2023 | 2025 | 2028-2029 (planned) |
The term "1nm process" does not mean the physical gate length is literally 1nm. It is a marketing node name used by the industry to denote generational improvements in transistor density and performance.
Samsung's Foundry Strategy
Samsung is pursuing the following strategies to close the gap with TSMC:
- Yield improvement focus: Significantly extended pre-validation period to avoid repeating the early yield issues experienced with 3nm GAA
- Backside Power Delivery Network (BSPDN): Moving power delivery lines to the back of the chip to optimize signal routing
- AI-specific process options: Custom process variants for HPC (High Performance Computing) and mobile SoCs
2. TSMC 2nm Mass Production and Foundry Competition
N2 Process Status
TSMC began risk production of its N2 (2nm) process in H2 2025 and has entered full mass production in H1 2026. Apple's next-generation A-series and M-series chips are reportedly the first N2 customers.
N2P and Extended Nodes
After N2, TSMC is rapidly preparing the N2P variant.
| Process | Features | Expected Production |
|---|---|---|
| N2 | GAA nanosheet, first adoption | H1 2026 |
| N2P | BSPDN applied, additional power efficiency gains | 2027 |
| A16 | N2-based high-performance variant | 2027-2028 |
TSMC vs Samsung: Foundry Market Share
Estimated global foundry market share as of 2026:
Global Foundry Market Share (2026 Q1 Estimate)
TSMC ████████████████████████████████ 62%
Samsung ████████████ 12%
GlobalFoundries ██████ 6%
UMC █████ 5%
SMIC ████ 5%
Others ██████████ 10%
TSMC's dominance is even more pronounced at advanced nodes (7nm and below). At advanced nodes alone, TSMC is estimated to hold over 90% market share.
3. Intel's Comeback -- Google Deal and 18A Process
Intel Foundry Services (IFS) Turning Point
Intel went through severe restructuring in 2024-2025. Despite negative developments including foundry business spinoff, massive layoffs, and factory construction delays, the announcement of a multi-year foundry deal with Google in early 2026 has turned the tide.
Intel 18A Process
Intel's 18A process, succeeding Intel 20A, incorporates the following technologies:
- RibbonFET: Intel's version of GAA transistors
- PowerVia: Backside power delivery technology
- High-density EUV patterning: Leveraging ASML's High-NA EUV equipment
Intel Process Roadmap
Intel 7 Intel 4 Intel 3 Intel 20A Intel 18A
(2022) (2023) (2024) (2025) (2026)
| | | | |
FinFET FinFET FinFET RibbonFET RibbonFET
1st gen EUV EUV expand EUV optim + PowerVia + High-NA EUV
(GAA intro) (Competes w/ N2)
Xeon 6 Processors
Intel is strengthening its data center presence with the Xeon 6 series, targeting AI workloads and general server workloads with separate P-core (performance) and E-core (efficiency) product lines.
| Product Line | Core Type | Target Workload | Competitor |
|---|---|---|---|
| Xeon 6 P-core | Performance cores | AI inference, HPC | AMD EPYC Turin |
| Xeon 6 E-core | Efficiency cores | Cloud, web servers | AMD EPYC Bergamo |
4. NVIDIA AI Chips -- H200, B200, Blackwell Architecture
Blackwell Architecture Overview
NVIDIA's Blackwell architecture succeeds Hopper (H100/H200), dramatically boosting both AI training and inference performance.
NVIDIA GPU Architecture Evolution
Ampere (A100) --> Hopper (H100/H200) --> Blackwell (B100/B200)
2020 2022/2024 2024/2025
- 7nm TSMC - 4nm TSMC - TSMC 4NP/3nm
- 54B transistors - 80B transistors - 208B transistors
- 80GB HBM2e - 80-141GB HBM3/3E - 192GB HBM3E
- No FP8 - FP8 support - FP4 support
B200 GPU Key Specifications
The B200 began shipping in volume in H2 2025 and is currently being deployed to large-scale data centers in 2026.
| Spec | H100 | H200 | B200 |
|---|---|---|---|
| Transistor Count | 80B | 80B | 208B |
| Memory | 80GB HBM3 | 141GB HBM3E | 192GB HBM3E |
| Memory Bandwidth | 3.35TB/s | 4.8TB/s | 8TB/s |
| FP8 Performance | 3.95 PFLOPS | 3.95 PFLOPS | 9 PFLOPS |
| FP4 Performance | N/A | N/A | 18 PFLOPS |
| TDP | 700W | 700W | 1,000W |
GB200 NVL72 -- Rack-Scale AI Supercomputer
NVIDIA announced the GB200 NVL72 system, integrating 72 B200 GPUs into a single rack. Connected via NVLink 5.0, this system delivers 1.4 ExaFLOPS (FP4) of AI compute performance from a single rack.
NVIDIA's Market Dominance
As of 2026, NVIDIA is estimated to hold approximately 80% of the data center AI accelerator market. This is largely due to the overwhelming software moat of the CUDA ecosystem. Major AI frameworks like PyTorch and TensorFlow are optimized for CUDA, making the switching cost to competitors extremely high.
5. HBM Competition -- SK Hynix HBM4, Samsung HBM3E
What Is HBM?
HBM (High Bandwidth Memory) vertically stacks multiple DRAM dies and connects them via TSVs (Through-Silicon Vias) for high-bandwidth memory. It is essential for meeting the enormous memory bandwidth demands of AI workloads.
HBM Structure (Cross-Section)
+-------------------+
| Controller Die |
+-------------------+
| DRAM Die #8 | ^
+-------------------+ | TSV (Through-Silicon Via)
| DRAM Die #7 | | vertical connection
+-------------------+ |
| DRAM Die #6 | |
+-------------------+ |
| DRAM Die #5 | | 8-12 layer stack
+-------------------+ |
| DRAM Die #4 | |
+-------------------+ |
| DRAM Die #3 | |
+-------------------+ |
| DRAM Die #2 | |
+-------------------+ |
| DRAM Die #1 | v
+-------------------+
| Base Die |
+-------------------+
| Interposer |
+---+---+---+---+---+
Micro Bumps
HBM Generation Comparison
| Generation | Bandwidth | Capacity (Single Stack) | Stack Layers | Key GPU Adoption |
|---|---|---|---|---|
| HBM2e | 460GB/s | 16GB | 8 layers | A100 |
| HBM3 | 819GB/s | 24GB | 8 layers | H100 |
| HBM3E | 1.18TB/s | 36GB | 12 layers | H200, B200 |
| HBM4 | 2TB/s+ (target) | 48GB+ | 16 layers (target) | Next-gen GPUs (2026-2027) |
SK Hynix Leading the Pack
SK Hynix maintains over 50% market share in HBM, leading the field. Through close collaboration with NVIDIA, SK Hynix secured the vast majority of early HBM3E volume. In 2026, the company is on track for HBM4 sample shipments.
Samsung's Pursuit
Samsung was somewhat delayed compared to SK Hynix in HBM3E mass production, but is narrowing the gap through aggressive investment and technology development. Having passed NVIDIA's quality qualification, Samsung is now in a favorable position for supply diversification.
6. AI Chip Startups -- Cerebras, Groq, SambaNova, Tenstorrent
Challengers to NVIDIA
Various AI chip startups are challenging NVIDIA's dominance, each with unique architectural approaches.
| Company | Core Technology | Strength | Key Customers/Partners |
|---|---|---|---|
| Cerebras | Wafer Scale Engine (WSE-3) | 850K cores on single chip, eliminates memory bottleneck | Government labs, pharma |
| Groq | LPU (Language Processing Unit) | Ultra-low latency inference, deterministic performance | Cloud inference services |
| SambaNova | RDU (Reconfigurable Dataflow Unit) | Dynamically reconfigurable architecture | Enterprise AI |
| Tenstorrent | RISC-V based AI accelerator | Open-source ISA, scalability | Jim Keller's vision |
Cerebras WSE-3
Cerebras Systems broke conventional chip design wisdom. While typical chips measure a few centimeters, Cerebras' WSE (Wafer Scale Engine) uses an entire 300mm wafer as a single chip.
Standard Chip vs Cerebras WSE
Standard GPU (~800mm2) Cerebras WSE-3 (~46,225mm2)
+--------+ +---------------------------+
| | | |
| Single | | 900,000 cores |
| die | | 44GB SRAM |
| | | Entire wafer = one chip |
+--------+ | |
+---------------------------+
Die area: ~800mm2 Die area: ~46,225mm2 (57x)
Groq LPU
Groq developed the LPU, specialized for inference. While conventional GPUs pursue versatility, Groq's LPU adopts a deterministic architecture optimized for language model inference, achieving ultra-low latency and high throughput simultaneously.
Tenstorrent and RISC-V
Led by Jim Keller, Tenstorrent is developing RISC-V based AI accelerators. RISC-V is an open-source instruction set architecture (ISA) that allows chip design without license fees. This makes it an attractive alternative for companies seeking to avoid dependency on x86 or ARM amid US-China tensions.
7. US-China Semiconductor Conflict -- Export Controls, CHIPS Act, Self-Sufficiency
US Export Controls on China
The US has further tightened semiconductor export controls on China throughout 2025-2026, building on restrictions first implemented in 2022.
US Semiconductor Export Controls on China - Timeline
2022.10 First export control rules announced
| - Advanced GPU export restricted (A100, H100)
|
2023.10 Rules tightened
| - Circumvention exports blocked (A800, H800 restricted too)
| - Semiconductor equipment export controls expanded
|
2024.12 Additional restrictions
| - HBM memory export regulations added
| - AI model training cloud services restricted
|
2025-2026 Current
- ASML High-NA EUV equipment fully blocked
- AI chip performance thresholds recalibrated
- Allied coordination framework strengthened
CHIPS Act Progress
The US CHIPS and Science Act (passed in 2022) is a subsidy program worth approximately 52.7 billion USD to incentivize domestic semiconductor production. Major outcomes as of 2026 include:
- TSMC Arizona fab: Phase 1 operational, Phase 2 under construction
- Samsung Texas fab: New Taylor facility under construction
- Intel Ohio fab: Major new fab construction, largest CHIPS Act beneficiary
- Micron New York fab: Memory semiconductor production expansion
China's Self-Sufficiency Strategy
China is accelerating semiconductor self-sufficiency in response to US export controls.
| Domain | Leading Chinese Company | Tech Level (2026) | Gap vs Global Leaders |
|---|---|---|---|
| Foundry | SMIC | 7nm (N+2) | 2-3 generations behind |
| GPU | Huawei (Ascend) | Ascend 910C | 3-4x performance gap vs NVIDIA |
| EDA Tools | Empyrean, Primarius | 28nm support | Limited vs Synopsys/Cadence |
| Equipment | AMEC, Naura | DUV level | EUV equipment under self-development |
China is rapidly increasing self-sufficiency in legacy semiconductors (28nm and above), but significant constraints remain at advanced nodes where access to ASML's EUV equipment is blocked.
8. Packaging Innovation -- CoWoS, 3D Stacking, Chiplet Architecture
Why Packaging Matters
As semiconductor process miniaturization approaches physical limits, packaging technology has emerged as the new key to performance improvement. Making smaller transistors alone is insufficient, so advanced packaging that efficiently connects multiple dies has become a critical technology.
CoWoS (Chip on Wafer on Substrate)
TSMC's CoWoS is currently the most widely used advanced packaging technology. It places GPU dies and HBM stacks side by side on a silicon interposer to enable ultra-high-speed communication.
CoWoS Packaging Cross-Section
GPU Die HBM Stack HBM Stack
+---------+ +----+ +----+
| | |DRAM| |DRAM|
| Logic | |DRAM| |DRAM|
| Die | |DRAM| |DRAM|
| | |BASE| |BASE|
+----+----+ +--+-+ +-+--+
| | |
+----------+-------------------+----------+--------+
| Silicon Interposer |
+--------------------------------------------------+
| Substrate |
+--------------------------------------------------+
Chiplet Architecture
Instead of a single monolithic die, chiplets connect functionally separated smaller dies using packaging technology.
Benefits of chiplets include:
- Yield improvement: Smaller dies have lower defect probability than larger dies
- Flexible configuration: Chiplet combinations can be varied by use case
- Heterogeneous integration: Different processes (e.g., CPU at 3nm, I/O at 7nm) in one package
- Cost reduction: Not all functions need to be on the most advanced process
AMD's EPYC server processors and Intel's Meteor Lake are representative examples of chiplet architecture.
3D Stacking Technology
Beyond 2D placement, vertical stacking technology is advancing rapidly. TSMC's SoIC (System on Integrated Chips) and Intel's Foveros are leading examples.
2D Packaging vs 3D Stacking
2D Layout (CoWoS style) 3D Stacking (SoIC/Foveros)
+----+ +----+ +----+ +----+
|ChpA| |ChpB| |ChpC| |ChpC|
+----+ +----+ +----+ +----+
+-----------------------+ |ChpB|
| Interposer | +----+
+-----------------------+ |ChpA|
+----+
Horizontal connection Vertical connection
Increased area Area savings, higher bandwidth
9. Automotive Semiconductors -- Autonomous Driving Chips, EV Semiconductors
Explosive Semiconductor Demand in Automotive
The advancement of electric vehicles (EVs) and autonomous driving technology has caused a surge in semiconductors per vehicle.
| Vehicle Type | Avg. Semiconductor Count | Key Semiconductors |
|---|---|---|
| ICE Vehicle | ~200-300 | MCU, sensors |
| Electric Vehicle | ~1,000-2,000 | Power semiconductors, MCU, sensors |
| L4 Autonomous Vehicle | 3,000+ | AI SoC, LiDAR IC, radar IC |
Autonomous Driving AI Chip Competition
Competition for autonomous driving AI compute is fierce.
| Company | Product | AI Performance | Key Features |
|---|---|---|---|
| NVIDIA | DRIVE Thor | 2,000 TOPS | FP8 support, unified vehicle computer |
| Qualcomm | Snapdragon Ride Flex | Confidential | Infotainment + ADAS integration |
| Mobileye | EyeQ Ultra | 176 TOPS | Camera-based vision specialized |
| Tesla | HW5 (custom design) | Undisclosed | FSD training/inference optimized |
Power Semiconductors -- SiC and GaN
Power semiconductors are essential for EV inverters and chargers. The transition from silicon (Si) to compound semiconductors based on silicon carbide (SiC) and gallium nitride (GaN) is accelerating.
Power Semiconductor Material Comparison
Property Si SiC GaN
Efficiency Baseline 15-20% 20-30% improvement
Max Temp 150C 200C 200C+
Switching Spd Baseline 5-10x 10-100x
Cost 1x 3-5x 2-4x
Primary Use General EV invert Chargers, server PSU
10. Investor Perspectives -- Semiconductor ETFs, Earnings Outlook
Key Semiconductor ETFs
| ETF | Provider | Top Holdings | 2025 Return |
|---|---|---|---|
| SMH | VanEck | NVIDIA, TSMC, ASML, AMD | ~35% |
| SOXX | iShares | NVIDIA, Broadcom, AMD, QCOM | ~28% |
| XSD | SPDR | Equal-weighted (includes small-caps) | ~18% |
Major Company Earnings Outlook (2026)
Semiconductor company earnings in 2026 largely depend on the continuation of AI demand.
Growth Expected
- NVIDIA: Continued AI data center investment cycle drives revenue growth. B200 volume shipments are the key catalyst
- SK Hynix: HBM3E/HBM4 demand explosion expected to drive record DRAM earnings
- TSMC: Robust growth from N2 production and surging CoWoS packaging demand
Watch Closely
- Intel: Foundry business losses continue vs Google deal momentum
- Samsung: Speed of HBM market share recovery is key
- AMD: Whether AI GPU (MI350) market share expands
Semiconductor Industry Cycles
The semiconductor industry traditionally follows 3-4 year cycles.
Semiconductor Industry Cycle (Revenue Growth Rate)
|
40% | *
| * *
30% | * *
| *
20% | * *
| *
10% | * *
| *
0% |*--------------------------*--------
| *
-10% | *
|
2020 2021 2022 2023 2024 2025 2026
COVID Boom Inventory Recovery AI AI
Correction Boom Cont.
Analyses diverge between those suggesting 2026 is near the peak of the AI investment cycle and those arguing it is still in the early stages.
Conclusion -- Key Themes of the 2026 Semiconductor Industry
The key themes of the 2026 semiconductor industry are:
- 1nm process competition: Samsung and TSMC roadmap battle intensifies
- HBM4: Next-generation memory technology nearing commercialization
- Blackwell: NVIDIA's market dominance strengthened
- Chiplet architecture: Paradigm shift from monolithic to modular
- US-China decoupling: Technology sovereignty competition deepens and supply chains restructure
- Automotive semiconductors: Rise of SiC/GaN compound semiconductors
- AI chip startups: Healthy counterbalance to NVIDIA monopoly
Semiconductors are the foundational technology for virtually every industry including AI, electric vehicles, data centers, and mobile. Understanding the technological advances and competitive landscape in this field is important not just for tech investors, but for engineers and policymakers alike.
References
- TSMC 2026 Technology Symposium Materials
- NVIDIA GTC 2026 Keynote
- Samsung Foundry Forum 2026
- Intel IFS Direct Connect 2026
- IC Insights / TrendForce Semiconductor Market Reports
- SEMI Equipment Market Report
- US Department of Commerce BIS Export Control Updates