- Authors

- Name
- Youngju Kim
- @fjvbn20031
はじめに
2026年、半導体業界はかつてない変曲点に立っています。サムスン電子が1ナノメートル(1nm)プロセスのロードマップを公式発表し、TSMCは2ナノ(N2)の量産を本格化しました。NVIDIAはBlackwellアーキテクチャ搭載のB200を出荷しAIコンピューティング市場を席巻しています。そしてインテルはGoogleとの大型ファウンドリ契約を発表し、復活の狼煙を上げました。
本記事では、2026年第1四半期までの半導体業界の主要動向を10のテーマに分けて深く分析します。ファウンドリのプロセス競争からHBMメモリ戦争、AIチップスタートアップの台頭、米中対立の最新局面、そして投資家目線まで幅広くカバーします。
目次
- サムスン電子 1nmプロセスロードマップ
- TSMC 2nm量産とファウンドリ競争
- インテルの反撃 -- Google大型契約と18Aプロセス
- NVIDIA AIチップ -- H200、B200、Blackwellアーキテクチャ
- HBM競争 -- SKハイニックス HBM4、サムスン HBM3E
- AIチップスタートアップ -- Cerebras、Groq、SambaNova、Tenstorrent
- 米中半導体対立 -- 輸出規制、CHIPS Act、自給自足
- パッケージング革新 -- CoWoS、3D積層、チップレットアーキテクチャ
- 車載半導体 -- 自動運転チップ、EV半導体
- 投資家目線 -- 半導体ETF、主要企業業績見通し
1. サムスン電子 1nmプロセスロードマップ
GAAトランジスタとMBCFET
サムスン電子は2025年末にGAA(Gate-All-Around)ベースの2nmプロセスの量産を開始したのに続き、2026年第1四半期に1nmクラスのプロセスロードマップを公式発表しました。核心技術はMBCFET(Multi-Bridge Channel FET)の進化です。
トランジスタ構造の進化
FinFET (7nm~3nm) GAA/MBCFET (2nm~1nm)
Gate Gate (全面包囲)
| / | \
+-+-+ +--+---+---+--+
|Fin| | チャネル |
| | | | チャネル |
+-+-+ +--+---+---+--+
Sub Sub
フィンの上にゲート ナノシートをゲートが
四方から包み込む構造
GAA構造ではゲートがチャネルを四方から包み込むため、電流制御が格段に精密になります。MBCFETは複数のナノシートを橋のように積み上げ、電流容量と電力効率を同時に高めるサムスン独自のアプローチです。
1nmプロセスの意味
| 項目 | 3nm (FinFET) | 2nm (GAA) | 1nm (MBCFET+) |
|---|---|---|---|
| トランジスタ密度 | 約1,700億/cm2 | 約2,500億/cm2 | 約4,000億/cm2(目標) |
| 電力効率 | 基準 | 25%改善 | 40%改善(目標) |
| 動作周波数 | 基準 | 10%向上 | 20%向上(目標) |
| 量産時期 | 2023 | 2025 | 2028~2029(予定) |
1nmプロセスという名称は、物理的なゲート長が実際に1nmであるという意味ではありません。業界で使われるマーケティングノード名であり、トランジスタ密度と性能向上を基準に世代を区分するものです。
サムスンのファウンドリ戦略
サムスンはTSMCとのファウンドリ格差を縮めるため、以下の戦略を推進しています。
- 歩留まり改善の集中: 3nm GAAで経験した初期歩留まり問題を2nmで繰り返さないため、事前検証期間を大幅に拡大
- バックサイドパワーデリバリ(BSPDN): 電力供給配線をチップ裏面に移動させ、信号経路を最適化
- AI特化プロセスオプション: HPC(High Performance Computing)とモバイルSoC向けのカスタムプロセスバリアントを提供
2. TSMC 2nm量産とファウンドリ競争
N2プロセスの現状
TSMCは2025年下半期からN2(2nm)プロセスのリスク生産を開始し、2026年上半期に本格量産体制に移行しました。Appleの次世代A-シリーズおよびM-シリーズチップが最初のN2顧客とされています。
N2Pと拡張ノード
TSMCはN2の後、N2Pバリアントを迅速に準備しています。
| プロセス | 特徴 | 量産予定 |
|---|---|---|
| N2 | GAAナノシート、初導入 | 2026年上半期 |
| N2P | BSPDN適用、電力効率追加改善 | 2027年 |
| A16 | N2ベース高性能バリアント | 2027~2028年 |
TSMC vs サムスン:ファウンドリ市場シェア
2026年時点のグローバルファウンドリ市場シェア推定値は以下の通りです。
グローバルファウンドリ市場シェア(2026 Q1推定)
TSMC ████████████████████████████████ 62%
サムスン ████████████ 12%
GlobalFoundries ██████ 6%
UMC █████ 5%
SMIC ████ 5%
その他 ██████████ 10%
TSMCの圧倒的優位は先端プロセス(7nm以下)でさらに顕著です。先端プロセスのみで見ると、TSMCは90%以上のシェアを占めると推定されています。
3. インテルの反撃 -- Google大型契約と18Aプロセス
Intel Foundry Services (IFS) の転換点
インテルは2024~2025年にかけて厳しいリストラを経験しました。ファウンドリ事業部の分社、大規模人員削減、工場建設の遅延など逆風が続きましたが、2026年初頭のGoogleとの複数年ファウンドリ契約の発表で流れが変わりつつあります。
Intel 18Aプロセス
インテルの18Aプロセスは、Intel 20Aに続く次世代ノードで、以下の技術が採用されています。
- RibbonFET: インテル版GAAトランジスタ
- PowerVia: バックサイドパワーデリバリ技術
- 高密度EUVパターニング: ASMLのHigh-NA EUV装置を活用
インテル プロセスロードマップ
Intel 7 Intel 4 Intel 3 Intel 20A Intel 18A
(2022) (2023) (2024) (2025) (2026)
| | | | |
FinFET FinFET FinFET RibbonFET RibbonFET
EUV 第1世代 EUV 拡大 EUV 最適化 + PowerVia + High-NA EUV
(GAA導入) (TSMC N2と競合)
Xeon 6 プロセッサ
インテルはサーバー用Xeon 6シリーズでデータセンター市場での地位を強化しています。P-コア(パフォーマンス)とE-コア(効率)ベースの2つの製品ラインで、AIワークロードと汎用サーバーワークロードをそれぞれ攻略しています。
| 製品ライン | コアタイプ | ターゲットワークロード | 競合製品 |
|---|---|---|---|
| Xeon 6 P-コア | 高性能コア | AI推論、HPC | AMD EPYC Turin |
| Xeon 6 E-コア | 高効率コア | クラウド、Webサーバー | AMD EPYC Bergamo |
4. NVIDIA AIチップ -- H200、B200、Blackwellアーキテクチャ
Blackwellアーキテクチャの概要
NVIDIAのBlackwellアーキテクチャはHopper(H100/H200)の後継で、AI学習と推論の性能を飛躍的に向上させました。
NVIDIA GPUアーキテクチャの進化
Ampere (A100) --> Hopper (H100/H200) --> Blackwell (B100/B200)
2020 2022/2024 2024/2025
- 7nm TSMC - 4nm TSMC - TSMC 4NP/3nm
- 540億トランジスタ - 800億トランジスタ - 2,080億トランジスタ
- 80GB HBM2e - 80~141GB HBM3/3E - 192GB HBM3E
- FP8非対応 - FP8対応 - FP4対応
B200 GPUの主要スペック
B200は2025年下半期から本格出荷が開始され、2026年現在、大規模データセンターへの配備が進行中です。
| 項目 | H100 | H200 | B200 |
|---|---|---|---|
| トランジスタ数 | 800億 | 800億 | 2,080億 |
| メモリ | 80GB HBM3 | 141GB HBM3E | 192GB HBM3E |
| メモリ帯域幅 | 3.35TB/s | 4.8TB/s | 8TB/s |
| FP8性能 | 3.95 PFLOPS | 3.95 PFLOPS | 9 PFLOPS |
| FP4性能 | 非対応 | 非対応 | 18 PFLOPS |
| TDP | 700W | 700W | 1,000W |
GB200 NVL72 -- ラックスケールAIスーパーコンピュータ
NVIDIAは72基のB200 GPUを1つのラックに統合したGB200 NVL72システムを発表しました。NVLink 5.0によるGPU間超高速通信をサポートし、単一ラックで1.4 ExaFLOPS(FP4基準)のAI演算性能を提供します。
NVIDIAの市場支配力
2026年時点で、データセンターAIアクセラレータ市場におけるNVIDIAのシェアは約80%と推定されています。これはCUDAエコシステムの圧倒的なソフトウェアモート(堀)によるものです。PyTorch、TensorFlowなどの主要AIフレームワークがCUDAに最適化されているため、競合へのスイッチングコストが非常に高い状況です。
5. HBM競争 -- SKハイニックス HBM4、サムスン HBM3E
HBMとは何か
HBM(High Bandwidth Memory)は、複数のDRAMダイを垂直に積層し、TSV(Through-Silicon Via)で接続した高帯域幅メモリです。AIワークロードが要求する膨大なメモリ帯域幅を満たすために不可欠な技術です。
HBM構造(断面図)
+-------------------+
| コントローラダイ |
+-------------------+
| DRAMダイ #8 | ^
+-------------------+ | TSV(シリコン貫通電極)
| DRAMダイ #7 | | による垂直接続
+-------------------+ |
| DRAMダイ #6 | |
+-------------------+ |
| DRAMダイ #5 | | 8~12段積層
+-------------------+ |
| DRAMダイ #4 | |
+-------------------+ |
| DRAMダイ #3 | |
+-------------------+ |
| DRAMダイ #2 | |
+-------------------+ |
| DRAMダイ #1 | v
+-------------------+
| ベースダイ |
+-------------------+
| インターポーザ |
+---+---+---+---+---+
マイクロバンプ
HBM世代別比較
| 世代 | 帯域幅 | 容量(単一スタック) | 積層数 | 主要採用GPU |
|---|---|---|---|---|
| HBM2e | 460GB/s | 16GB | 8段 | A100 |
| HBM3 | 819GB/s | 24GB | 8段 | H100 |
| HBM3E | 1.18TB/s | 36GB | 12段 | H200、B200 |
| HBM4 | 2TB/s+(目標) | 48GB+(目標) | 16段(目標) | 次世代GPU(2026~2027) |
SKハイニックスのリード
SKハイニックスはHBM市場で50%以上のシェアを維持しリードしています。特にNVIDIAとの緊密な協力関係を通じて、HBM3Eの初期ボリュームの大部分を確保しました。2026年にはHBM4のサンプル出荷を目標に開発を進めています。
サムスンの追撃
サムスン電子はHBM3EでSKハイニックスに比べ量産時期がやや遅れましたが、積極的な投資と技術開発で差を縮めています。NVIDIAの品質認定(qualification)を通過したことで、サプライチェーン多元化の面で有利なポジションを確保しました。
6. AIチップスタートアップ -- Cerebras、Groq、SambaNova、Tenstorrent
NVIDIAへの挑戦者たち
NVIDIAの独占的地位に挑戦する多様なAIチップスタートアップが存在します。各社独自のアーキテクチャアプローチで差別化を図っています。
| 企業 | コア技術 | 強み | 主要顧客/パートナー |
|---|---|---|---|
| Cerebras | ウェーハスケールエンジン(WSE-3) | 単一チップ85万コア、メモリボトルネック解消 | 政府研究所、製薬 |
| Groq | LPU(Language Processing Unit) | 超低レイテンシ推論、決定的性能 | クラウド推論サービス |
| SambaNova | RDU(Reconfigurable Dataflow Unit) | 動的再構成可能アーキテクチャ | エンタープライズAI |
| Tenstorrent | RISC-VベースAIアクセラレータ | オープンソースISA、拡張性 | ジム・ケラーCEOのビジョン |
Cerebras WSE-3
Cerebras Systemsは半導体設計の常識を覆した企業です。通常のチップが数センチメートルサイズであるのに対し、CerebrasのWSE(Wafer Scale Engine)は300mmウェーハ全体を1つのチップとして使用します。
通常チップ vs Cerebras WSE
通常GPU(約800mm2) Cerebras WSE-3(約46,225mm2)
+--------+ +---------------------------+
| | | |
| 単一 | | 900,000 コア |
| ダイ | | 44GB SRAM |
| | | ウェーハ全体が1つのチップ |
+--------+ | |
+---------------------------+
ダイ面積: ~800mm2 ダイ面積: ~46,225mm2 (57倍)
Groq LPU
Groqは推論(inference)に特化したLPUを開発しました。従来のGPUが汎用性を追求するのに対し、GroqのLPUは言語モデル推論に最適化された決定的(deterministic)アーキテクチャを採用し、超低レイテンシと高スループットを同時に達成しています。
TenstorrentとRISC-V
ジム・ケラー(Jim Keller)が率いるTenstorrentは、RISC-VベースのAIアクセラレータを開発しています。RISC-Vはオープンソース命令セットアーキテクチャ(ISA)で、ライセンス費用なしに自由にチップを設計できる利点があります。米中対立の中でx86やARMへの依存を避けたい企業にとって魅力的な選択肢となっています。
7. 米中半導体対立 -- 輸出規制、CHIPS Act、自給自足
米国の対中輸出規制
米国は2022年から始まった対中半導体輸出規制を2025~2026年にかけてさらに強化しました。
米国 対中半導体輸出規制タイムライン
2022.10 初の輸出規制規則発表
| - 先端GPU輸出制限(A100、H100)
|
2023.10 規制強化
| - 迂回輸出遮断(A800、H800も制限)
| - 半導体装置輸出規制拡大
|
2024.12 追加制限
| - HBMメモリ輸出規制追加
| - AI学習クラウドサービス制限
|
2025~2026 現在
- ASML High-NA EUV装置完全遮断
- AIチップ性能基準再調整
- 同盟国との協調体制強化
CHIPS Actの成果
米国CHIPS and Science Act(2022年成立)は、国内半導体生産を奨励するための527億ドル(約7.9兆円)規模の補助金プログラムです。2026年現在の主要成果は以下の通りです。
- TSMCアリゾナ工場: 第1期稼働開始、第2期建設進行中
- サムスンテキサス工場: テイラー(Taylor)新工場建設進行中
- インテルオハイオ工場: 大規模新ファブ建設、CHIPS Act最大受益
- マイクロンニューヨーク工場: メモリ半導体生産施設拡大
中国の自給自足戦略
中国は米国の輸出規制に対応して半導体の自給自足を加速しています。
| 分野 | 中国代表企業 | 技術水準(2026年) | グローバル比較格差 |
|---|---|---|---|
| ファウンドリ | SMIC | 7nm (N+2) | 2~3世代遅れ |
| GPU | Huawei (Ascend) | Ascend 910C | NVIDIA比3~4倍の性能差 |
| EDAツール | Empyrean、Primarius | 28nmサポート | Synopsys/Cadence比限定的 |
| 製造装置 | AMEC、Naura | DUVレベル | EUV装置は自主開発中 |
中国はレガシー半導体(28nm以上)では急速に自給率を高めていますが、先端プロセスではASMLのEUV装置へのアクセスが遮断されているため、大きな制約が残っています。
8. パッケージング革新 -- CoWoS、3D積層、チップレットアーキテクチャ
なぜパッケージングが重要なのか
半導体微細化の物理的限界が近づく中、パッケージング技術が性能向上の新たな鍵として浮上しています。より小さなトランジスタを作るだけでは限界があるため、複数のチップを効率的に接続する先端パッケージングが核心技術となりました。
CoWoS (Chip on Wafer on Substrate)
TSMCのCoWoSは現在最も広く使われている先端パッケージング技術です。GPUダイとHBMスタックをシリコンインターポーザ上に並べて配置し、超高速通信を可能にします。
CoWoSパッケージング断面図
GPUダイ HBMスタック HBMスタック
+---------+ +----+ +----+
| | |DRAM| |DRAM|
| ロジック | |DRAM| |DRAM|
| ダイ | |DRAM| |DRAM|
| | |BASE| |BASE|
+----+----+ +--+-+ +-+--+
| | |
+----------+------------------+----------+--------+
| シリコンインターポーザ |
+-------------------------------------------------+
| 基板(Substrate) |
+-------------------------------------------------+
チップレット(Chiplet)アーキテクチャ
チップレットは、1つの巨大なモノリシックダイの代わりに、**機能ごとに分離した小さなダイ(チップレット)**をパッケージング技術で接続するアプローチです。
チップレットの利点は以下の通りです。
- 歩留まり向上: 小さいダイは大きいダイより欠陥確率が低い
- 柔軟な構成: 用途に応じてチップレットの組み合わせを変更可能
- 異種統合: 異なるプロセス(例: CPUは3nm、I/Oは7nm)を1つのパッケージに統合
- コスト削減: すべての機能を最先端プロセスで製造する必要がない
AMDのEPYCサーバープロセッサとインテルのMeteor Lakeがチップレットアーキテクチャの代表的な事例です。
3D積層技術
2D配置を超えてチップを垂直に積み上げる 3D積層技術も急速に進化しています。TSMCのSoIC(System on Integrated Chips)とインテルのFoverosが代表的です。
2Dパッケージング vs 3D積層
2D配置(CoWoS方式) 3D積層(SoIC/Foveros)
+-----+ +-----+ +-----+ +-----+
|チップA| |チップB| |チップC| |チップC|
+-----+ +-----+ +-----+ +-----+
+-------------------------+ |チップB|
| インターポーザ | +-----+
+-------------------------+ |チップA|
+-----+
水平接続 垂直接続
面積増大 面積節約、帯域幅向上
9. 車載半導体 -- 自動運転チップ、EV半導体
自動車業界の半導体需要爆発
電気自動車(EV)と自動運転技術の発展により、1台あたりの半導体搭載量が急増しています。
| 車両タイプ | 半導体搭載数(平均) | 主要半導体 |
|---|---|---|
| 内燃機関車 | 約200~300個 | MCU、センサー |
| 電気自動車 | 約1,000~2,000個 | パワー半導体、MCU、センサー |
| L4自動運転車 | 約3,000個以上 | AI SoC、LiDAR IC、レーダーIC |
自動運転AIチップ競争
自動運転AI演算のためのチップ競争が激化しています。
| 企業 | 製品 | AI演算性能 | 主な特徴 |
|---|---|---|---|
| NVIDIA | DRIVE Thor | 2,000 TOPS | FP8対応、統合車両コンピュータ |
| Qualcomm | Snapdragon Ride Flex | 非公開 | インフォテイメント + ADAS統合 |
| Mobileye | EyeQ Ultra | 176 TOPS | カメラベースビジョン特化 |
| Tesla | HW5(自社設計) | 非公開 | FSD学習/推論最適化 |
パワー半導体 -- SiCとGaN
電気自動車の核心部品であるインバータ、充電器にはパワー半導体が不可欠です。従来のシリコン(Si)ベースから炭化ケイ素(SiC)と窒化ガリウム(GaN)ベースの化合物半導体への移行が加速しています。
パワー半導体材料比較
特性 Si SiC GaN
エネルギー効率 基準 15~20% 20~30% 向上
動作温度 150度 200度 200度以上
スイッチング速度 基準 5~10倍 10~100倍
コスト 1倍 3~5倍 2~4倍
主要用途 汎用 EVインバータ 充電器、サーバー電源
10. 投資家目線 -- 半導体ETF、主要企業業績見通し
半導体関連主要ETF
| ETF | 運用会社 | 主要保有銘柄 | 2025年リターン |
|---|---|---|---|
| SMH | VanEck | NVIDIA、TSMC、ASML、AMD | 約35% |
| SOXX | iShares | NVIDIA、Broadcom、AMD、QCOM | 約28% |
| XSD | SPDR | 均等加重(小型株含む) | 約18% |
主要企業業績見通し(2026年)
2026年の半導体企業業績はAI需要の持続性に大きく左右されます。
成長期待企業
- NVIDIA: AIデータセンター投資サイクルの継続により増収見通し。B200本格出荷が業績を牽引
- SKハイニックス: HBM3E/HBM4需要爆発でDRAM部門過去最高業績予想
- TSMC: N2量産とCoWoSパッケージング需要急増で堅調な成長
注視すべき企業
- インテル: ファウンドリ事業の赤字継続 vs Google契約のモメンタム
- サムスン電子: HBM市場シェア回復のスピードがカギ
- AMD: AI GPU(MI350)の市場シェア拡大可否
半導体産業サイクル
半導体業界は伝統的に3~4年周期のサイクルがあります。
半導体産業サイクル(売上成長率推移)
|
40% | *
| * *
30% | * *
| *
20% | * *
| *
10% | * *
| *
0% |*--------------------------*--------
| *
-10% | *
|
2020 2021 2022 2023 2024 2025 2026
コロナ 好況 在庫調整 回復 AIブーム AI継続
2026年はAI投資サイクルのピークに近づいているという分析と、まだ初期段階であるという分析が共存しています。
まとめ -- 2026年半導体業界の核心キーワード
2026年半導体業界の核心キーワードを整理すると以下の通りです。
- 1nmプロセス競争: サムスンとTSMCのロードマップ競争が本格化
- HBM4: 次世代メモリ技術の商用化が目前
- Blackwell: NVIDIAの市場支配力が強化
- チップレットアーキテクチャ: モノリシックからモジュラーへのパラダイム転換
- 米中デカップリング: 技術覇権競争の深化とサプライチェーン再編
- 車載半導体: SiC/GaN化合物半導体の台頭
- AIチップスタートアップ: NVIDIA独占への健全な牽制
半導体はAI、電気自動車、データセンター、モバイルなど、ほぼすべての産業の基盤技術です。この分野の技術発展と競争構図を理解することは、技術投資家だけでなく、エンジニアや政策立案者にとっても重要です。
参考資料
- TSMC 2026 Technology Symposium 資料
- NVIDIA GTC 2026 キーノート
- サムスン電子 ファウンドリフォーラム 2026
- Intel IFS Direct Connect 2026
- IC Insights / TrendForce 半導体市場レポート
- SEMI 装置市場レポート
- 米国商務省 BIS 輸出規制アップデート