들어가며
2026년, 반도체 산업은 전례 없는 변곡점에 서 있습니다. 삼성전자가 1나노미터(1nm) 공정 로드맵을 공식 발표했고, TSMC는 2나노(N2) 양산을 본격화했습니다. NVIDIA는 Blackwell 아키텍처 기반 B200을 출하하며 AI 컴퓨팅 시장을 압도하고 있고, 인텔은 구글과의 파운드리 대형 계약으로 재기의 신호탄을 쏘아 올렸습니다.
이 글에서는 2026년 1분기까지의 반도체 산업 주요 동향을 10개 핵심 주제로 나누어 심층 분석합니다. 파운드리 공정 경쟁부터 HBM 메모리 전쟁, AI 칩 스타트업의 부상, 미중 갈등의 최신 국면, 그리고 투자자 관점까지 폭넓게 다루겠습니다.
목차
- 삼성전자 1나노 공정 로드맵
- TSMC 2나노 양산과 파운드리 경쟁
- 인텔의 반격 -- 구글 대형 계약과 18A 공정
- NVIDIA AI 칩 -- H200, B200, Blackwell 아키텍처
- HBM 경쟁 -- SK하이닉스 HBM4, 삼성 HBM3E
- AI 칩 스타트업 -- Cerebras, Groq, SambaNova, Tenstorrent
- 미중 반도체 갈등 -- 수출 통제, CHIPS Act, 자급자족
- 패키징 혁신 -- CoWoS, 3D 적층, 칩렛 아키텍처
- 자동차 반도체 -- 자율주행 칩, EV 반도체
- 투자자 관점 -- 반도체 ETF, 주요 기업 실적 전망
1. 삼성전자 1나노 공정 로드맵
GAA 트랜지스터와 MBCFET
삼성전자는 2025년 말 GAA(Gate-All-Around) 기반 2나노 공정의 양산을 시작한 데 이어, 2026년 1분기에 1나노급 공정 로드맵을 공식 공개했습니다. 핵심은 MBCFET(Multi-Bridge Channel FET) 기술의 진화입니다.
트랜지스터 구조 진화
FinFET (7nm~3nm) GAA/MBCFET (2nm~1nm)
Gate Gate (전면 감싸기)
| / | \
+-+-+ +--+---+---+--+
|Fin| | 채널 채널 |
| | | | 채널 채널 |
+-+-+ +--+---+---+--+
Sub Sub
핀 구조 위에 게이트 나노시트를 게이트가
사방에서 감싸는 구조
GAA 구조에서는 게이트가 채널을 사방에서 감싸기 때문에 전류 제어가 훨씬 정밀해집니다. MBCFET는 여러 개의 나노시트(nanosheet)를 다리처럼 쌓아 올려 전류 용량과 전력 효율을 동시에 높이는 삼성 고유의 접근법입니다.
1나노 공정의 의미
| 항목 | 3nm (FinFET) | 2nm (GAA) | 1nm (MBCFET+) |
|---|---|---|---|
| 트랜지스터 밀도 | 약 1,700억/cm2 | 약 2,500억/cm2 | 약 4,000억/cm2 (목표) |
| 전력 효율 | 기준 | 25% 개선 | 40% 개선 (목표) |
| 동작 주파수 | 기준 | 10% 향상 | 20% 향상 (목표) |
| 양산 시점 | 2023 | 2025 | 2028~2029 (예정) |
1나노 공정이라는 명칭은 실제 물리적 게이트 길이가 1nm라는 의미가 아닙니다. 업계에서 사용하는 마케팅 노드명으로, 트랜지스터 밀도와 성능 향상을 기준으로 세대를 구분하는 것입니다.
삼성의 파운드리 전략
삼성은 TSMC와의 파운드리 격차를 줄이기 위해 다음 전략을 추진하고 있습니다.
- 수율 개선 집중: 3나노 GAA에서 겪었던 초기 수율 문제를 2나노에서 반복하지 않기 위해 사전 검증 기간 대폭 확대
- 백사이드 파워 딜리버리(BSPDN): 전력 공급선을 칩 뒷면으로 이동시켜 신호 경로 최적화
- AI 특화 공정 옵션: HPC(High Performance Computing)와 모바일 SoC를 위한 맞춤형 공정 변형 제공
2. TSMC 2나노 양산과 파운드리 경쟁
N2 공정의 현황
TSMC는 2025년 하반기부터 N2(2나노) 공정의 위험 생산(risk production)을 시작했으며, 2026년 상반기에 본격 양산 체제에 돌입했습니다. Apple의 차세대 A-시리즈 및 M-시리즈 칩이 첫 번째 N2 고객으로 알려져 있습니다.
N2P와 확장 노드
TSMC는 N2 이후 빠르게 N2P 변형을 준비하고 있습니다.
| 공정 | 특징 | 예상 양산 |
|---|---|---|
| N2 | GAA 나노시트, 첫 도입 | 2026 상반기 |
| N2P | BSPDN 적용, 전력 효율 추가 개선 | 2027 |
| A16 | N2 기반 고성능 변형 | 2027~2028 |
TSMC vs 삼성: 파운드리 점유율
2026년 기준 글로벌 파운드리 시장 점유율 추정치는 다음과 같습니다.
글로벌 파운드리 시장 점유율 (2026 Q1 추정)
TSMC ████████████████████████████████ 62%
삼성 ████████████ 12%
GlobalFoundries ██████ 6%
UMC █████ 5%
SMIC ████ 5%
기타 ██████████ 10%
TSMC의 압도적 우위는 첨단 공정(7nm 이하)에서 더욱 두드러집니다. 첨단 공정만 놓고 보면 TSMC가 90% 이상의 점유율을 차지하는 것으로 추정됩니다.
3. 인텔의 반격 -- 구글 대형 계약과 18A 공정
인텔 파운드리 서비스(IFS)의 전환점
인텔은 2024~2025년 동안 극심한 구조조정을 거쳤습니다. 파운드리 사업부 분사, 대규모 인력 감축, 그리고 공장 건설 지연 등 악재가 이어졌지만, 2026년 초 구글과의 다년간 파운드리 계약이 발표되면서 분위기가 반전되고 있습니다.
인텔 18A 공정
인텔의 18A 공정은 인텔 20A에 이은 차세대 노드로, 다음과 같은 기술이 적용됩니다.
- RibbonFET: 인텔 버전의 GAA 트랜지스터
- PowerVia: 백사이드 파워 딜리버리 기술
- 고밀도 EUV 패터닝: ASML의 High-NA EUV 장비 활용
인텔 공정 로드맵
Intel 7 Intel 4 Intel 3 Intel 20A Intel 18A
(2022) (2023) (2024) (2025) (2026)
| | | | |
FinFET FinFET FinFET RibbonFET RibbonFET
EUV 1세대 EUV 확대 EUV 최적화 + PowerVia + High-NA EUV
(GAA 도입) (TSMC N2 경쟁)
제온 6(Xeon 6) 프로세서
인텔은 서버용 제온 6 시리즈를 통해 데이터센터 시장에서의 입지를 강화하고 있습니다. 특히 P-코어(성능)와 E-코어(효율) 기반의 두 가지 제품군으로 나누어 AI 워크로드와 범용 서버 워크로드를 각각 공략하고 있습니다.
| 제품군 | 코어 유형 | 타겟 워크로드 | 경쟁 제품 |
|---|---|---|---|
| Xeon 6 P-코어 | 고성능 코어 | AI 추론, HPC | AMD EPYC Turin |
| Xeon 6 E-코어 | 고효율 코어 | 클라우드, 웹서버 | AMD EPYC Bergamo |
4. NVIDIA AI 칩 -- H200, B200, Blackwell 아키텍처
Blackwell 아키텍처 개요
NVIDIA의 Blackwell 아키텍처는 Hopper(H100/H200)의 후속으로, AI 학습 및 추론 성능을 획기적으로 끌어올렸습니다.
NVIDIA GPU 아키텍처 진화
Ampere (A100) --> Hopper (H100/H200) --> Blackwell (B100/B200)
2020 2022/2024 2024/2025
- 7nm TSMC - 4nm TSMC - TSMC 4NP/3nm
- 54B 트랜지스터 - 80B 트랜지스터 - 208B 트랜지스터
- 80GB HBM2e - 80~141GB HBM3/3E - 192GB HBM3E
- FP8 미지원 - FP8 지원 - FP4 지원
B200 GPU의 주요 사양
B200은 2025년 하반기부터 본격 출하가 시작되어 2026년 현재 대규모 데이터센터에 배치가 진행 중입니다.
| 항목 | H100 | H200 | B200 |
|---|---|---|---|
| 트랜지스터 수 | 800억 | 800억 | 2,080억 |
| 메모리 | 80GB HBM3 | 141GB HBM3E | 192GB HBM3E |
| 메모리 대역폭 | 3.35TB/s | 4.8TB/s | 8TB/s |
| FP8 성능 | 3.95 PFLOPS | 3.95 PFLOPS | 9 PFLOPS |
| FP4 성능 | 미지원 | 미지원 | 18 PFLOPS |
| TDP | 700W | 700W | 1,000W |
GB200 NVL72 -- 서버 랙 수준의 AI 슈퍼컴퓨터
NVIDIA는 B200 GPU 72개를 하나의 랙에 통합한 GB200 NVL72 시스템을 발표했습니다. 이 시스템은 NVLink 5.0을 통해 GPU 간 초고속 통신을 지원하며, 단일 랙에서 1.4 ExaFLOPS(FP4 기준)의 AI 연산 성능을 제공합니다.
NVIDIA의 시장 지배력
2026년 기준 데이터센터 AI 가속기 시장에서 NVIDIA의 점유율은 약 80%로 추정됩니다. 이는 CUDA 생태계의 압도적인 소프트웨어 해자(moat) 덕분입니다. PyTorch, TensorFlow 등 주요 AI 프레임워크가 CUDA에 최적화되어 있어 경쟁사로의 전환 비용이 매우 높습니다.
5. HBM 경쟁 -- SK하이닉스 HBM4, 삼성 HBM3E
HBM이란 무엇인가
HBM(High Bandwidth Memory)은 여러 개의 DRAM 다이를 수직으로 적층하고 TSV(Through-Silicon Via)로 연결한 고대역폭 메모리입니다. AI 워크로드에서 요구되는 엄청난 메모리 대역폭을 충족시키기 위해 필수적인 기술입니다.
HBM 구조 (단면도)
+-------------------+
| 컨트롤러 다이 |
+-------------------+
| DRAM 다이 #8 | ^
+-------------------+ | TSV (실리콘 관통 전극)
| DRAM 다이 #7 | | 으로 수직 연결
+-------------------+ |
| DRAM 다이 #6 | |
+-------------------+ |
| DRAM 다이 #5 | | 8~12단 적층
+-------------------+ |
| DRAM 다이 #4 | |
+-------------------+ |
| DRAM 다이 #3 | |
+-------------------+ |
| DRAM 다이 #2 | |
+-------------------+ |
| DRAM 다이 #1 | v
+-------------------+
| 베이스 다이 |
+-------------------+
| 인터포저 |
+---+---+---+---+---+
마이크로 범프
HBM 세대별 비교
| 세대 | 대역폭 | 용량 (단일 스택) | 적층 수 | 주요 채택 GPU |
|---|---|---|---|---|
| HBM2e | 460GB/s | 16GB | 8단 | A100 |
| HBM3 | 819GB/s | 24GB | 8단 | H100 |
| HBM3E | 1.18TB/s | 36GB | 12단 | H200, B200 |
| HBM4 | 2TB/s+ (목표) | 48GB+ | 16단 (목표) | 차세대 GPU (2026~2027) |
SK하이닉스의 선두
SK하이닉스는 HBM 시장에서 약 50% 이상의 점유율을 유지하며 선두를 달리고 있습니다. 특히 NVIDIA와의 긴밀한 협력 관계를 통해 HBM3E의 초기 물량 대부분을 확보했습니다. 2026년에는 HBM4의 샘플 출하를 목표로 개발을 진행 중입니다.
삼성의 추격
삼성전자는 HBM3E에서 SK하이닉스에 비해 양산 시점이 다소 늦었지만, 적극적인 투자와 기술 개발로 격차를 좁히고 있습니다. 특히 NVIDIA의 품질 검증(qualification)을 통과하면서 공급선 다변화 측면에서 유리한 위치를 확보했습니다.
6. AI 칩 스타트업 -- Cerebras, Groq, SambaNova, Tenstorrent
NVIDIA 대항마들
NVIDIA의 독점적 지위에 도전하는 다양한 AI 칩 스타트업이 있습니다. 이들은 각각 독특한 아키텍처 접근법으로 차별화를 시도하고 있습니다.
| 기업 | 핵심 기술 | 강점 | 주요 고객/파트너 |
|---|---|---|---|
| Cerebras | 웨이퍼 스케일 엔진(WSE-3) | 단일 칩 85만 코어, 메모리 병목 제거 | 정부 연구소, 제약 |
| Groq | LPU(Language Processing Unit) | 초저지연 추론, 예측 가능한 성능 | 클라우드 추론 서비스 |
| SambaNova | RDU(Reconfigurable Dataflow Unit) | 동적 재구성 가능 아키텍처 | 엔터프라이즈 AI |
| Tenstorrent | RISC-V 기반 AI 가속기 | 오픈소스 ISA, 확장성 | 짐 켈러 CEO의 비전 |
Cerebras WSE-3
Cerebras Systems는 반도체 설계의 통념을 깬 회사입니다. 일반적인 칩이 수 센티미터 크기인 반면, Cerebras의 WSE(Wafer Scale Engine)는 300mm 웨이퍼 전체를 하나의 칩으로 사용합니다.
일반 칩 vs Cerebras WSE
일반 GPU (약 800mm2) Cerebras WSE-3 (약 46,225mm2)
+--------+ +---------------------------+
| | | |
| 단일 | | 900,000 코어 |
| 다이 | | 44GB SRAM |
| | | 웨이퍼 전체가 하나의 칩 |
+--------+ | |
+---------------------------+
다이 면적: ~800mm2 다이 면적: ~46,225mm2 (57배)
Groq LPU
Groq은 추론(inference)에 특화된 LPU를 개발했습니다. 기존 GPU가 범용성을 추구하는 반면, Groq의 LPU는 언어 모델 추론에 최적화된 결정적(deterministic) 아키텍처를 채택하여 초저지연과 높은 처리량을 동시에 달성합니다.
Tenstorrent와 RISC-V
짐 켈러(Jim Keller)가 이끄는 Tenstorrent는 RISC-V 기반의 AI 가속기를 개발하고 있습니다. RISC-V는 오픈소스 명령어 집합 아키텍처(ISA)로, 라이선스 비용 없이 자유롭게 칩을 설계할 수 있다는 장점이 있습니다. 이는 미중 갈등 속에서 x86이나 ARM에 의존하지 않으려는 기업들에게 매력적인 대안이 됩니다.
7. 미중 반도체 갈등 -- 수출 통제, CHIPS Act, 자급자족
미국의 대중국 수출 통제
미국은 2022년부터 시작된 대중국 반도체 수출 통제를 2025~2026년에 더욱 강화했습니다.
미국 대중국 반도체 수출 통제 타임라인
2022.10 첫 수출 통제 규정 발표
| - 첨단 GPU 수출 제한 (A100, H100)
|
2023.10 규정 강화
| - 우회 수출 차단 (A800, H800도 제한)
| - 반도체 장비 수출 통제 확대
|
2024.12 추가 제한
| - HBM 메모리 수출 규제 추가
| - AI 모델 학습 클라우드 서비스 제한
|
2025~2026 현재
- ASML High-NA EUV 장비 완전 차단
- AI 칩 성능 기준 재조정
- 동맹국과의 공조 체계 강화
CHIPS Act의 성과
미국 CHIPS and Science Act(2022년 통과)는 반도체 국내 생산을 장려하기 위한 527억 달러(약 70조 원) 규모의 보조금 프로그램입니다. 2026년 현재 주요 성과는 다음과 같습니다.
- TSMC 애리조나 공장: 1단계 가동 시작, 2단계 건설 진행 중
- 삼성 텍사스 공장: 테일러(Taylor) 신규 공장 건설 진행
- 인텔 오하이오 공장: 대규모 신규 팹 건설, CHIPS Act 최대 수혜
- 마이크론 뉴욕 공장: 메모리 반도체 생산 시설 확대
중국의 자급자족 전략
중국은 미국의 수출 통제에 대응하여 반도체 자급자족을 가속화하고 있습니다.
| 분야 | 중국 대표 기업 | 기술 수준 (2026) | 글로벌 대비 격차 |
|---|---|---|---|
| 파운드리 | SMIC | 7nm (N+2) | 2~3세대 뒤처짐 |
| GPU | Huawei (Ascend) | Ascend 910C | NVIDIA 대비 3~4배 성능 차이 |
| EDA 도구 | Empyrean, Primarius | 28nm급 지원 | Synopsys/Cadence 대비 제한적 |
| 장비 | AMEC, Naura | DUV 수준 | EUV 장비 자체 개발 중 |
중국은 레거시 반도체(28nm 이상)에서는 빠르게 자급률을 높이고 있지만, 첨단 공정에서는 여전히 ASML의 EUV 장비 접근이 차단되어 있어 큰 제약이 존재합니다.
8. 패키징 혁신 -- CoWoS, 3D 적층, 칩렛 아키텍처
왜 패키징이 중요한가
반도체 미세 공정의 물리적 한계가 다가오면서, 패키징 기술이 성능 향상의 새로운 열쇠로 부상했습니다. 더 작은 트랜지스터를 만드는 것만으로는 한계가 있기 때문에, 여러 칩을 효율적으로 연결하는 첨단 패키징이 핵심 기술이 되었습니다.
CoWoS (Chip on Wafer on Substrate)
TSMC의 CoWoS는 현재 가장 널리 사용되는 첨단 패키징 기술입니다. GPU 다이와 HBM 다이를 실리콘 인터포저 위에 나란히 배치하여 초고속 통신을 가능하게 합니다.
CoWoS 패키징 단면도
GPU 다이 HBM 스택 HBM 스택
+---------+ +----+ +----+
| | |DRAM| |DRAM|
| 로직 | |DRAM| |DRAM|
| 다이 | |DRAM| |DRAM|
| | |BASE| |BASE|
+----+----+ +--+-+ +-+--+
| | |
+----------+-----------------+----------+--------+
| 실리콘 인터포저 |
+------------------------------------------------+
| 기판 (Substrate) |
+------------------------------------------------+
칩렛(Chiplet) 아키텍처
칩렛은 하나의 거대한 모놀리식 다이 대신, **기능별로 분리된 작은 다이(칩렛)**를 패키징 기술로 연결하는 접근법입니다.
칩렛의 장점은 다음과 같습니다.
- 수율 향상: 작은 다이는 큰 다이보다 결함 확률이 낮음
- 유연한 구성: 용도에 따라 칩렛 조합을 변경 가능
- 이종 통합: 서로 다른 공정(예: CPU는 3nm, I/O는 7nm)을 하나의 패키지에 통합
- 비용 절감: 모든 기능을 최첨단 공정으로 만들 필요 없음
AMD의 EPYC 서버 프로세서와 인텔의 Meteor Lake가 칩렛 아키텍처의 대표적인 사례입니다.
3D 적층 기술
2D 배치를 넘어 칩을 수직으로 쌓는 3D 적층 기술도 빠르게 발전하고 있습니다. TSMC의 SoIC(System on Integrated Chips)와 인텔의 Foveros가 대표적입니다.
2D 패키징 vs 3D 적층
2D 배치 (CoWoS 방식) 3D 적층 (SoIC/Foveros)
+----+ +----+ +----+ +----+
| 칩A | | 칩B | | 칩C | | 칩C |
+----+ +----+ +----+ +----+
+-----------------------+ | 칩B |
| 인터포저 | +----+
+-----------------------+ | 칩A |
+----+
수평 연결 수직 연결
면적 증가 면적 절약, 대역폭 증가
9. 자동차 반도체 -- 자율주행 칩, EV 반도체
자동차 산업의 반도체 수요 폭발
전기차(EV)와 자율주행 기술의 발전으로 자동차 한 대에 들어가는 반도체의 양이 급증하고 있습니다.
| 차량 유형 | 반도체 탑재량 (평균) | 핵심 반도체 |
|---|---|---|
| 내연기관차 | 약 200~300개 | MCU, 센서 |
| 전기차 | 약 1,000~2,000개 | 파워 반도체, MCU, 센서 |
| L4 자율주행차 | 약 3,000개 이상 | AI SoC, LiDAR IC, 레이더 IC |
자율주행 AI 칩 경쟁
자율주행 AI 연산을 위한 칩 경쟁이 치열합니다.
| 기업 | 제품 | AI 연산 성능 | 주요 특징 |
|---|---|---|---|
| NVIDIA | DRIVE Thor | 2,000 TOPS | FP8 지원, 통합 차량 컴퓨터 |
| Qualcomm | Snapdragon Ride Flex | 기밀 | 인포테인먼트 + ADAS 통합 |
| Mobileye | EyeQ Ultra | 176 TOPS | 카메라 기반 비전 특화 |
| Tesla | HW5 (자체 설계) | 비공개 | FSD 학습/추론 최적화 |
파워 반도체 -- SiC와 GaN
전기차의 핵심 부품인 인버터, 충전기에는 파워 반도체가 필수입니다. 기존 실리콘(Si) 기반에서 탄화규소(SiC)와 질화갈륨(GaN) 기반의 화합물 반도체로 전환이 가속되고 있습니다.
파워 반도체 소재 비교
특성 Si SiC GaN
에너지 효율 기준 15~20% 20~30% 향상
동작 온도 150도 200도 200도 이상
스위칭 속도 기준 5~10배 10~100배
비용 1배 3~5배 2~4배
주요 용도 범용 EV 인버터 충전기, 서버 전원
10. 투자자 관점 -- 반도체 ETF, 주요 기업 실적 전망
반도체 관련 주요 ETF
| ETF | 운용사 | 주요 보유 종목 | 2025년 수익률 |
|---|---|---|---|
| SMH | VanEck | NVIDIA, TSMC, ASML, AMD | 약 35% |
| SOXX | iShares | NVIDIA, Broadcom, AMD, QCOM | 약 28% |
| XSD | SPDR | 균등 가중 (소형주 포함) | 약 18% |
주요 기업 실적 전망 (2026년)
2026년 반도체 기업들의 실적은 AI 수요 지속 여부에 크게 좌우됩니다.
성장 기대 기업
- NVIDIA: AI 데이터센터 투자 사이클 지속으로 매출 성장 전망. B200 본격 출하가 실적 견인
- SK하이닉스: HBM3E/HBM4 수요 폭발로 DRAM 부문 사상 최대 실적 예상
- TSMC: N2 양산과 CoWoS 패키징 수요 급증으로 견조한 성장
주시 필요 기업
- 인텔: 파운드리 사업 적자 지속 vs 구글 계약 모멘텀
- 삼성전자: HBM 시장 점유율 회복 속도가 관건
- AMD: AI GPU(MI350) 시장 점유율 확대 여부
반도체 산업 사이클
반도체 산업은 전통적으로 3~4년 주기의 사이클을 보입니다.
반도체 산업 사이클 (매출 성장률 추이)
|
40% | *
| * *
30% | * *
| *
20% | * *
| *
10% | * *
| *
0% |*--------------------------*--------
| *
-10% | *
|
2020 2021 2022 2023 2024 2025 2026
팬데믹 호황 재고조정 회복 AI붐 AI지속
2026년은 AI 투자 사이클의 정점에 가까워지고 있다는 분석과, 아직 초기 단계라는 분석이 공존하고 있습니다.
마무리 -- 2026년 반도체 산업 핵심 키워드
2026년 반도체 산업의 핵심 키워드를 정리하면 다음과 같습니다.
- 1nm 공정 경쟁: 삼성과 TSMC의 로드맵 경쟁 본격화
- HBM4: 차세대 메모리 기술의 상용화 임박
- Blackwell: NVIDIA의 시장 지배력 강화
- 칩렛 아키텍처: 모놀리식에서 모듈형으로의 패러다임 전환
- 미중 디커플링: 기술 패권 경쟁 심화와 공급망 재편
- 자동차 반도체: SiC/GaN 화합물 반도체의 부상
- AI 칩 스타트업: NVIDIA 독점에 대한 건전한 견제
반도체는 AI, 전기차, 데이터센터, 모바일 등 거의 모든 산업의 기반 기술입니다. 이 분야의 기술 발전과 경쟁 구도를 이해하는 것은 기술 투자자뿐만 아니라 엔지니어, 정책 입안자 모두에게 중요합니다.
참고 자료
- TSMC 2026 Technology Symposium 자료
- NVIDIA GTC 2026 키노트
- 삼성전자 파운드리 포럼 2026
- Intel IFS Direct Connect 2026
- IC Insights / TrendForce 반도체 시장 리포트
- SEMI 장비 시장 보고서
- 미국 상무부 BIS 수출 통제 규정 업데이트
현재 단락 (1/276)
2026년, 반도체 산업은 전례 없는 변곡점에 서 있습니다. 삼성전자가 1나노미터(1nm) 공정 로드맵을 공식 발표했고, TSMC는 2나노(N2) 양산을 본격화했습니다. NVIDI...