- Published on
GPT 시리즈 논문 완벽 분석: GPT-1부터 GPT-4까지, 언어 모델이 세상을 바꾸기까지의 여정
- Authors
- Name
- 1. GPT 시리즈 개요 및 연대기
- 2. GPT-1 (2018): Generative Pre-Training의 시작
- 3. GPT-2 (2019): Zero-shot Learning의 가능성
- 4. GPT-3 (2020): In-context Learning과 Scaling의 힘
- 5. InstructGPT / ChatGPT (2022): 인간의 의도에 맞추기
- 6. GPT-4 (2023): 멀티모달과 예측 가능한 스케일링
- 7. Scaling Laws 심층 분석
- 8. 전체 아키텍처 비교
- 9. GPT의 영향: AI 생태계의 변혁
- 10. 한계점과 비판
- 11. 정리: GPT가 남긴 유산
- 12. References
1. GPT 시리즈 개요 및 연대기
GPT(Generative Pre-trained Transformer)는 OpenAI가 2018년부터 발표해온 일련의 대규모 언어 모델(Large Language Model, LLM) 시리즈다. "사전학습된 생성형 Transformer"라는 이름 그대로, Transformer Decoder 아키텍처를 기반으로 대규모 텍스트 데이터에서 비지도 사전학습(Unsupervised Pre-training)을 수행한 뒤, 다양한 Downstream Task에 적용하는 패러다임을 확립했다.
GPT 시리즈는 단순히 모델 크기가 커진 것이 아니라, 각 세대마다 언어 모델의 활용 방식 자체를 재정의했다. 그 여정을 연대순으로 정리하면 다음과 같다.
| 세대 | 발표 시기 | 논문 제목 | 핵심 키워드 | 파라미터 수 |
|---|---|---|---|---|
| GPT-1 | 2018.06 | Improving Language Understanding by Generative Pre-Training | Unsupervised Pre-training + Supervised Fine-tuning | 117M |
| GPT-2 | 2019.02 | Language Models are Unsupervised Multitask Learners | Zero-shot Transfer, WebText | 1.5B |
| GPT-3 | 2020.05 | Language Models are Few-Shot Learners | In-context Learning, Scaling Laws | 175B |
| InstructGPT | 2022.03 | Training Language Models to Follow Instructions with Human Feedback | RLHF, Human Alignment | 1.3B~175B |
| GPT-4 | 2023.03 | GPT-4 Technical Report | Multimodal, Predictable Scaling | 비공개 |
각 세대의 논문 제목 자체가 핵심 메시지를 담고 있다는 점이 인상적이다. GPT-1은 "생성형 사전학습으로 언어 이해를 개선한다"고 선언했고, GPT-2는 "언어 모델은 비지도 멀티태스크 학습기"라고 주장했으며, GPT-3는 "언어 모델은 Few-shot 학습기"라고 한 단계 더 나아갔다. InstructGPT는 "인간 피드백으로 지시를 따르도록 훈련한다"는 실용적 방향을 제시했고, GPT-4는 간결하게 "기술 보고서"로만 발표하며 상업적 전환을 암시했다.
이 글에서는 각 논문의 핵심 기여, 아키텍처 상세, 학습 방법론, 그리고 후속 연구에 미친 영향을 수식과 함께 분석한다.
2. GPT-1 (2018): Generative Pre-Training의 시작
2.1 논문 개요
논문: "Improving Language Understanding by Generative Pre-Training" 저자: Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever (OpenAI) 발표: 2018년 6월
GPT-1의 핵심 아이디어는 놀랍도록 단순하다. 레이블이 없는 대규모 텍스트로 언어 모델을 사전학습한 뒤, 소량의 레이블 데이터로 특정 태스크에 미세조정(Fine-tuning)한다. 이 두 단계 접근법(Semi-supervised Learning)이 당시 NLP의 판도를 바꿨다.
2018년 당시 NLP는 Task-specific 아키텍처가 지배하던 시대였다. 감정 분석, 질의응답, 텍스트 함의(Textual Entailment) 등 각 태스크마다 별도의 모델을 설계하고, 해당 태스크의 레이블 데이터만으로 학습하는 것이 표준이었다. GPT-1은 이 패러다임에 "범용 사전학습"이라는 새로운 길을 제시했다.
2.2 아키텍처 상세
GPT-1은 Transformer의 Decoder 블록만을 사용하는 아키텍처를 채택했다. 원래 Transformer(Vaswani et al., 2017)는 Encoder-Decoder 구조였지만, GPT-1은 Auto-regressive 언어 모델링에 적합한 Decoder-only 구조를 선택했다.
모델 구성:
- 레이어 수: 12개의 Transformer Decoder 블록
- Hidden Dimension: 768
- Attention Head 수: 12 (각 64차원)
- Feed-Forward Dimension: 3,072 ()
- Context Window: 512 토큰
- 총 파라미터: 약 117M (1.17억)
- 활성화 함수: GELU (Gaussian Error Linear Unit)
- Positional Encoding: 학습 가능한 위치 임베딩 (Learned Positional Embedding)
원래 Transformer에서 사용한 고정된 Sinusoidal Positional Encoding 대신, GPT-1은 학습 가능한 위치 임베딩을 채택했다. 이는 모델이 위치 정보를 데이터로부터 직접 학습할 수 있게 하여, 다양한 태스크에 더 유연하게 적응할 수 있었다.
2.3 Stage 1: Unsupervised Pre-training
사전학습 단계에서는 레이블이 없는 대규모 텍스트 코퍼스 에 대해 표준 언어 모델링 목적함수를 최적화한다.
여기서 는 컨텍스트 윈도우 크기이고, 는 모델 파라미터다. 즉, 이전 개의 토큰이 주어졌을 때 다음 토큰의 확률을 최대화하는, 전형적인 Auto-regressive Language Modeling이다.
구체적으로 각 토큰의 표현은 다음과 같이 계산된다.
여기서 은 컨텍스트 토큰 벡터, 는 토큰 임베딩 행렬, 는 위치 임베딩 행렬이다. 출력 확률은 토큰 임베딩 행렬 를 재사용(Weight Tying)하여 계산한다.
학습 데이터: BooksCorpus 데이터셋을 사용했다. 약 7,000권의 미출판 도서로 구성되어 있으며, 약 5GB의 텍스트를 포함한다. 장편 텍스트가 많아 Long-range Dependency를 학습하기에 적합했다.
토큰화: BPE(Byte Pair Encoding)를 사용하며, 40,000개의 Merge를 수행하여 어휘를 구성했다.
최적화: Adam Optimizer를 사용했으며, Learning Rate는 처음 2,000 Step 동안 0에서 까지 선형 증가(Linear Warmup)한 뒤, Cosine Annealing으로 감소시켰다. Batch Size는 64, 100 Epoch 학습했다.
2.4 Stage 2: Supervised Fine-tuning
사전학습된 모델을 특정 태스크에 적용하기 위해, 레이블 데이터 로 미세조정한다. 입력 토큰 시퀀스 에 대응하는 레이블 가 주어지면, 다음 목적함수를 최적화한다.
여기서 이고, 은 마지막 Transformer 블록의 마지막 토큰 출력, 는 태스크별 Linear Head의 가중치다.
핵심 기법 — Auxiliary Language Modeling Objective: GPT-1은 Fine-tuning 시에도 원래의 언어 모델링 목적함수를 보조 손실로 함께 사용했다. 이는 일반화 성능을 높이고 수렴을 가속화하는 효과가 있었다.
여기서 는 보조 손실의 가중치로, 논문에서는 를 사용했다.
2.5 Task-specific Input Transformation
GPT-1의 또 다른 중요한 기여는, 다양한 태스크를 하나의 Transformer 아키텍처로 처리하기 위한 입력 변환 기법을 제시한 것이다. 아키텍처 자체를 바꾸지 않고, 입력 형식만 바꿔서 여러 태스크에 적용했다.
- Text Classification:
[Start] 텍스트 [Extract]형태로 입력하고, 마지막 토큰의 출력에 Linear Layer를 적용 - Textual Entailment:
[Start] 전제 [Delimiter] 가설 [Extract]형태로 두 문장을 연결 - Semantic Similarity: 두 문장의 순서를 바꿔 두 가지 입력을 만들고, 각각의 출력을 Element-wise로 합산
- Multiple Choice: 각 선택지와 컨텍스트를 개별적으로 연결하여 여러 시퀀스를 만들고, Softmax로 정규화
이 접근법은 모델 아키텍처의 변경을 최소화하면서 다양한 태스크에 적용할 수 있다는 점에서 매우 실용적이었다. 추가 파라미터는 Delimiter 토큰의 임베딩과 최종 Linear Layer의 가중치 뿐이다.
2.6 실험 결과와 의의
GPT-1은 12개의 NLP 벤치마크 중 9개에서 State-of-the-art를 달성했다. 특히 Commonsense Reasoning(Stories Cloze Test에서 86.5% 정확도), Semantic Similarity(QQP에서 70.3 F1), Question Answering(RACE에서 59.0% 정확도) 등 다양한 태스크에서 기존 모델을 큰 폭으로 능가했다.
하지만 GPT-1의 진정한 의의는 개별 벤치마크 성능이 아니라, "대규모 비지도 사전학습 + 소량 지도 미세조정"이라는 패러다임을 확립한 것이다. 이 패러다임은 이후 BERT, RoBERTa, T5 등으로 이어지며 NLP의 표준이 되었다.
3. GPT-2 (2019): Zero-shot Learning의 가능성
3.1 논문 개요
논문: "Language Models are Unsupervised Multitask Learners" 저자: Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever (OpenAI) 발표: 2019년 2월
GPT-2의 논문 제목은 대담한 주장을 담고 있다. "언어 모델은 비지도 멀티태스크 학습기다." 즉, 언어 모델링이라는 단일 목적함수로 학습했을 뿐인데, 별도의 미세조정 없이도 여러 태스크를 수행할 수 있다는 것이다.
GPT-1이 "사전학습 후 미세조정"의 두 단계를 필요로 했다면, GPT-2는 미세조정 없이 Zero-shot으로 태스크를 수행할 수 있음을 보여줬다. 이는 근본적인 패러다임 전환이었다.
3.2 핵심 아이디어: Task as Language Modeling
GPT-2의 핵심 통찰은, 모든 NLP 태스크를 조건부 언어 모델링으로 재구성할 수 있다는 것이다.
기존의 지도학습은 조건부 확률 을 학습한다. GPT-2는 이를 형태로 확장하고, task 정보를 자연어로 제공한다.
예를 들어:
- 번역:
(translate to french, english text, french text)형태의 시퀀스를 자연스러운 텍스트로 표현 - 요약: 텍스트 뒤에
TL;DR:을 붙여서 요약을 유도 - 질의응답: 문맥과 질문을 자연어로 제공하면 답변 생성
이 아이디어의 핵심은, 충분히 큰 언어 모델이 충분히 다양한 텍스트를 학습하면, 태스크 수행 능력이 자연스럽게 창발(Emerge)한다는 것이다.
3.3 아키텍처 상세
GPT-2는 GPT-1의 아키텍처를 기본으로 하되, 몇 가지 중요한 수정을 가했다.
주요 변경 사항:
- Layer Normalization 위치 변경: 각 Sub-block의 입력 쪽으로 이동 (Pre-norm)
- 추가 Layer Normalization: 최종 Self-attention 블록 뒤에 추가
- Residual 가중치 초기화: 잔차 경로의 가중치를 으로 스케일링 (은 Residual Layer 수)
- Context Window 확대: 512 → 1,024 토큰
- Vocabulary Size 확대: 40,000 → 50,257 (Byte-level BPE)
- Batch Size 확대: 64 → 512
GPT-2는 4가지 크기의 모델을 학습했다.
| 모델 | 파라미터 | 레이어 | Hidden Dim | Head 수 | Head Dim |
|---|---|---|---|---|---|
| Small | 117M | 12 | 768 | 12 | 64 |
| Medium | 345M | 24 | 1,024 | 16 | 64 |
| Large | 762M | 36 | 1,280 | 20 | 64 |
| XL | 1,542M | 48 | 1,600 | 25 | 64 |
모든 모델에서 Head Dimension은 64로 고정되어 있으며, Feed-forward Layer의 차원은 항상 Hidden Dimension의 4배()라는 패턴이 유지된다.
3.4 WebText 데이터셋
GPT-2의 또 다른 핵심 기여는 WebText라는 새로운 학습 데이터셋이다.
데이터 구축 방법:
- Reddit에서 3 Karma 이상을 받은 외부 링크를 수집 (인간이 품질을 검증한 셈)
- 약 4,500만 개의 링크를 수집
- Dragnet과 Newspaper 라이브러리로 HTML에서 텍스트 추출
- 중복 제거 및 휴리스틱 기반 정제
데이터셋 특성:
- 약 800만 개의 문서
- 약 40GB의 텍스트
- Wikipedia는 의도적으로 제외 (평가 데이터셋과의 Data Leakage 방지)
WebText의 설계 철학은 "인간의 큐레이션을 활용하되, 명시적 레이블링 비용은 피한다"는 것이었다. Reddit의 Karma 시스템을 일종의 품질 필터로 활용한 아이디어는 이후 많은 데이터셋 구축에 영감을 주었다.
3.5 Byte-level BPE
GPT-2는 토큰화에서도 중요한 혁신을 도입했다. 기존 BPE가 Unicode 문자 수준에서 동작하는 반면, GPT-2는 Byte 수준에서 BPE를 적용했다.
이 접근법의 장점:
- 완전한 커버리지: 임의의 바이트 시퀀스를 인코딩할 수 있으므로 OOV(Out-of-Vocabulary) 문제가 원천적으로 해결된다
- 다국어 지원: 별도의 전처리 없이 다양한 언어와 특수 문자를 처리할 수 있다
- 기본 어휘 크기: 256 (바이트 수) + 특수 토큰
다만 단순한 Byte-level BPE는 비효율적인 Merge를 많이 생성하므로, GPT-2는 다른 카테고리의 문자를 Merge하지 못하도록 하는 규칙을 추가했다. 최종 어휘 크기는 50,257개다.
3.6 Zero-shot 성능과 Scaling
GPT-2의 Zero-shot 성능은 모델 크기에 따라 꾸준히 향상되었다. 이는 이후 Scaling Laws 연구의 전조가 되는 관찰이었다.
주요 Zero-shot 결과:
- 언어 모델링: 8개의 Language Modeling 벤치마크 중 7개에서 State-of-the-art (WebText에서 학습하지 않은 도메인 포함)
- Children's Book Test (Named Entity): 93.3% 정확도 (기존 SOTA 대비 +7%)
- LAMBADA: Perplexity 8.6 (기존 SOTA 99.8 대비 대폭 개선)
- Reading Comprehension (CoQA): 55.0 F1 (127,000개 학습 데이터를 사용한 기존 모델의 4개 중 3개를 능가)
- 번역 (WMT14 En-Fr): Zero-shot으로 11.5 BLEU (비지도 번역 기존 SOTA를 근소하게 능가)
- 요약 (CNN/Daily Mail): TL;DR 프롬프트로 유도, 정성적으로 의미 있는 결과
3.7 "Too Dangerous to Release" 논란
GPT-2는 기술적 성과만큼이나 공개 정책으로도 큰 주목을 받았다. OpenAI는 최초에 1.5B 파라미터 모델을 공개하지 않기로 결정하고, 가장 작은 117M 모델만 공개했다. 이유는 "악의적 사용(Fake news, spam 등)의 위험이 크다"는 것이었다.
이 결정은 AI 커뮤니티에서 격렬한 논쟁을 불러일으켰다.
지지 측 논거:
- 강력한 텍스트 생성 모델의 무분별한 공개는 허위 정보 대량 생산에 악용될 수 있다
- 사회적 영향을 고려한 Responsible Disclosure의 선례가 필요하다
비판 측 논거:
- 1.5B 파라미터 모델의 위험성이 과장되었다
- 학술 커뮤니티의 재현 가능성을 저해한다
- 마케팅 목적의 과대포장이라는 의혹
결국 OpenAI는 2019년 11월에 전체 모델을 공개했고, 우려했던 대규모 악용 사례는 발생하지 않았다. 하지만 이 논쟁은 이후 AI Safety와 Responsible AI 논의의 중요한 계기가 되었다.
4. GPT-3 (2020): In-context Learning과 Scaling의 힘
4.1 논문 개요
논문: "Language Models are Few-Shot Learners" 저자: Tom B. Brown, Benjamin Mann, Nick Ryder 외 다수 (OpenAI) 발표: 2020년 5월 (NeurIPS 2020)
GPT-3는 1,750억(175B) 파라미터라는 전례 없는 규모의 언어 모델이다. 그러나 GPT-3의 진정한 혁신은 크기가 아니라, In-context Learning이라는 새로운 패러다임을 확립한 것이다. 모델의 가중치를 전혀 업데이트하지 않고, 프롬프트에 몇 가지 예시를 포함하는 것만으로 다양한 태스크를 수행할 수 있음을 입증했다.
4.2 In-context Learning 패러다임
GPT-3 논문은 세 가지 평가 조건을 체계적으로 비교했다.
Zero-shot: 태스크 설명만 자연어로 제공
Translate English to French:
cheese =>
One-shot: 태스크 설명 + 1개의 예시 제공
Translate English to French:
sea otter => loutre de mer
cheese =>
Few-shot: 태스크 설명 + 10~100개의 예시 제공 (컨텍스트 윈도우가 허용하는 범위 내)
Translate English to French:
sea otter => loutre de mer
peppermint => menthe poivrée
plush giraffe => girafe en peluche
cheese =>
이 세 조건 모두 Gradient Update가 전혀 없다. 모델은 순전히 Forward Pass만으로 태스크를 수행한다. 이것이 Fine-tuning과의 결정적 차이다.
In-context Learning이 작동하는 이유에 대한 논문의 해석은, 사전학습 과정에서 모델이 자연스럽게 다양한 태스크 패턴을 학습하게 되고, 프롬프트의 예시가 모델 내부에 이미 존재하는 관련 능력을 "활성화(Locate and Activate)"하는 역할을 한다는 것이다.
4.3 아키텍처 상세
GPT-3는 GPT-2와 기본적으로 동일한 아키텍처를 사용하되, Sparse Transformer(Child et al., 2019)에서 영감을 받아 Dense와 Locally Banded Sparse Attention 패턴을 교차 사용했다.
GPT-3는 8가지 크기의 모델을 학습하여 Scaling 효과를 체계적으로 분석했다.
| 모델명 | 파라미터 | 레이어 | Head 수 | Batch Size | Learning Rate | ||
|---|---|---|---|---|---|---|---|
| GPT-3 Small | 125M | 12 | 768 | 12 | 64 | 0.5M | |
| GPT-3 Medium | 350M | 24 | 1,024 | 16 | 64 | 0.5M | |
| GPT-3 Large | 760M | 24 | 1,536 | 16 | 96 | 0.5M | |
| GPT-3 XL | 1.3B | 24 | 2,048 | 24 | 128 | 1M | |
| GPT-3 2.7B | 2.7B | 32 | 2,560 | 32 | 80 | 1M | |
| GPT-3 6.7B | 6.7B | 32 | 4,096 | 32 | 128 | 2M | |
| GPT-3 13B | 13.0B | 40 | 5,140 | 40 | 128 | 2M | |
| GPT-3 175B | 175.0B | 96 | 12,288 | 96 | 128 | 3.2M |
모든 모델은 2,048 토큰의 Context Window를 사용하며, 총 300B(3,000억) 토큰을 학습했다. 모델이 커질수록 Learning Rate는 낮추고 Batch Size는 키우는 패턴이 일관되게 적용되었다.
4.4 학습 데이터 구성
GPT-3의 학습 데이터는 여러 소스를 혼합한 것으로, 각 소스의 품질에 따라 학습 비중을 차등 적용했다는 점이 특징적이다.
| 데이터셋 | 토큰 수 (B) | 학습 비중 | Epoch |
|---|---|---|---|
| Common Crawl (필터링) | 410 | 60% | 0.44 |
| WebText2 | 19 | 22% | 2.9 |
| Books1 | 12 | 8% | 1.9 |
| Books2 | 55 | 8% | 0.43 |
| Wikipedia | 3 | 3% | 3.4 |
주목할 점은 Common Crawl이 전체 토큰의 대부분을 차지하지만, 학습 비중은 60%로 제한한 것이다. 반면 고품질 데이터인 WebText2는 19B 토큰밖에 되지 않지만 22%의 높은 비중을 부여했다. 이는 데이터 품질이 양보다 중요하다는 판단을 반영한다.
Common Crawl 필터링 과정:
- 고품질 참조 코퍼스(WebText, Books, Wikipedia)와의 유사도를 기반으로 문서 필터링
- 문서 간 Fuzzy Deduplication 수행
- 참조 코퍼스를 학습 데이터에 추가하여 최종 구성
4.5 벤치마크 성능
GPT-3 175B의 Few-shot 성능은 다양한 벤치마크에서 인상적이었다.
언어 모델링:
- PTB (Penn Treebank): 20.50 Perplexity (Zero-shot SOTA)
Question Answering:
- TriviaQA: 71.2% 정확도 (Few-shot, Fine-tuned SOTA 대비 경쟁적)
- NaturalQuestions: 29.9% 정확도 (Few-shot)
- WebQuestions: 41.5% 정확도 (Few-shot)
번역:
- WMT14 En→Fr: 25.2 BLEU (Few-shot)
- WMT14 Fr→En: 33.9 BLEU (Few-shot)
- WMT16 En→De: 24.3 BLEU (Few-shot)
SuperGLUE:
- Few-shot으로 71.8점 달성 (Fine-tuned BERT-Large의 69.0점 능가)
- 다만 Fine-tuned SOTA(90.0점)에는 미치지 못함
산술 추론:
- 2자리 덧셈: 100% 정확도
- 3자리 덧셈: 80.4% 정확도
- 4~5자리 덧셈: 급격히 하락
이 결과들은 모델 크기가 커질수록, 그리고 제공되는 예시가 많을수록 성능이 향상되는 명확한 Scaling 효과를 보여주었다.
4.6 GPT-3의 한계 인식
논문은 GPT-3의 한계도 솔직하게 기술했다.
텍스트 생성 품질: 긴 문서 생성 시 반복, 일관성 상실, 비논리적 진술 등의 문제 Few-shot의 한계: 자연어 추론(NLI), 일부 Reading Comprehension 태스크에서 Fine-tuning 기반 모델에 미치지 못함 양방향 컨텍스트 부재: Auto-regressive 모델의 본질적 한계로, BERT 등 Bidirectional 모델이 유리한 태스크 존재 Sample Efficiency: 인간은 한두 개의 예시로 새로운 태스크를 학습하지만, GPT-3는 수십~수백 개의 예시가 필요 해석 가능성 부족: 모델의 의사결정 과정을 이해하기 어렵고, In-context Learning의 정확한 메커니즘도 불분명
5. InstructGPT / ChatGPT (2022): 인간의 의도에 맞추기
5.1 논문 개요
논문: "Training Language Models to Follow Instructions with Human Feedback" 저자: Long Ouyang, Jeff Wu, Xu Jiang 외 다수 (OpenAI) 발표: 2022년 3월 (NeurIPS 2022)
GPT-3까지의 언어 모델은 근본적인 문제가 있었다. "다음 토큰 예측"이라는 학습 목적함수와 "사용자의 지시를 유용하고 안전하게 따르기"라는 실제 사용 목적이 일치하지 않았다. 대규모 언어 모델이 아무리 뛰어나도, 질문에 엉뚱한 답을 하거나, 유해한 콘텐츠를 생성하거나, 사실과 다른 정보를 자신 있게 서술하는 문제가 빈번했다.
InstructGPT는 이 Alignment Problem을 RLHF(Reinforcement Learning from Human Feedback)로 해결한 획기적인 연구다. 그리고 이 기술이 바로 ChatGPT의 기반이 되었다.
5.2 Alignment 문제의 정의
논문은 기존 언어 모델의 문제를 세 가지로 분류했다.
- Helpfulness (유용성) 부족: 사용자의 지시를 따르지 않고, 관련 없는 텍스트를 생성
- Truthfulness (진실성) 부족: 사실과 다른 정보를 생성 (Hallucination)
- Harmlessness (무해성) 부족: 유해하거나 편향적인 콘텐츠를 생성
이 세 가지를 합쳐 HHH(Helpful, Honest, Harmless) 기준이라 하며, InstructGPT는 인간의 피드백을 활용하여 이 기준에 맞게 모델을 정렬(Align)하는 것을 목표로 했다.
5.3 RLHF 3단계 파이프라인
InstructGPT의 RLHF 파이프라인은 세 단계로 구성된다.
Step 1: Supervised Fine-Tuning (SFT)
첫 번째 단계는 전통적인 지도학습이다. 인간 라벨러(Labeler)가 프롬프트에 대한 이상적인 응답을 직접 작성하고, 이 데이터로 GPT-3를 미세조정한다.
- 데이터: 약 13,000개의 (프롬프트, 이상적 응답) 쌍
- 프롬프트 출처: 라벨러가 직접 작성한 프롬프트 + OpenAI API 사용자가 제출한 프롬프트
- 학습: 16 Epoch, Cosine Learning Rate Decay
SFT 모델은 기본적인 지시 따르기 능력을 부여하지만, 아직 완전하지 않다. 다음 단계에서 인간의 선호도를 학습한다.
Step 2: Reward Model (RM) Training
두 번째 단계에서는 **인간의 선호도를 수치화하는 보상 모델(Reward Model)**을 학습한다.
데이터 수집 과정:
- SFT 모델로 하나의 프롬프트에 대해 개의 다른 응답을 생성 (는 4~9)
- 인간 라벨러가 개의 응답을 선호도 순으로 순위(Ranking) 매김
- 개의 비교 쌍을 생성
Reward Model 손실 함수:
여기서 는 프롬프트 와 응답 에 대한 Reward Model의 스칼라 출력, 는 선호된 응답, 는 비선호된 응답, 는 Sigmoid 함수다.
이 손실 함수는 Bradley-Terry 모델에 기반한 것으로, 선호된 응답의 보상이 비선호된 응답보다 높도록 학습한다. 하나의 프롬프트에서 개의 비교 쌍을 만들어 단일 Forward Pass로 계산함으로써 효율성을 높였다.
- 데이터 규모: 약 33,000개의 프롬프트에서 수집한 비교 데이터
- 모델 크기: 6B 파라미터 (SFT 모델에서 최종 Unembedding Layer를 제거하고 스칼라 출력 Head를 추가)
Step 3: Reinforcement Learning with PPO
세 번째 단계에서는 학습된 Reward Model을 보상 신호로 사용하여 SFT 모델을 PPO(Proximal Policy Optimization) 알고리즘으로 최적화한다.
PPO 최적화 목적함수:
여기서:
- : 현재 학습 중인 RL 정책 (언어 모델)
- : SFT 단계에서 얻은 참조 정책
- : Reward Model의 출력
- : KL Penalty 계수
- : KL Divergence
KL Divergence Penalty의 역할:
KL Divergence 항은 RL 학습 중 모델이 SFT 모델에서 너무 멀어지는 것을 방지한다. 이 제약이 없으면 모델이 Reward Model의 허점을 악용하여 높은 보상을 얻지만 실제로는 무의미한 텍스트를 생성하는 Reward Hacking 현상이 발생할 수 있다.
KL Divergence의 정확한 형태는 다음과 같다.
실제 구현에서는 이 KL Divergence를 보상에서 직접 차감하는 방식으로 적용한다. 즉, 수정된 보상은 다음과 같다.
PPO-ptx: Pre-training Mix
InstructGPT는 추가로 PPO-ptx 변형을 제안했다. RL 학습 중에 원래의 사전학습 데이터에 대한 Language Modeling 목적함수를 보조 손실로 혼합한다.
여기서 는 사전학습 손실의 가중치다. 이 항은 RL 학습 과정에서 모델의 일반적인 언어 능력이 퇴화하는 것("Alignment Tax")을 방지한다.
5.4 놀라운 결과: 작은 모델이 큰 모델을 이기다
InstructGPT의 가장 놀라운 결과는, 1.3B 파라미터의 InstructGPT가 175B 파라미터의 GPT-3보다 인간 평가에서 선호되었다는 것이다. 파라미터 수가 100배 이상 적은 모델이 더 유용하고, 더 진실하며, 더 무해한 응답을 생성했다.
주요 실험 결과:
- 인간 평가에서 InstructGPT 출력이 GPT-3 출력 대비 압도적으로 선호됨
- 공개 NLP 벤치마크에서는 GPT-3와 비슷하거나 약간의 성능 저하 (Alignment Tax)
- TruthfulQA에서 PPO 모델은 GPT-3 대비 유의미한 개선
- 독성(Toxicity) 생성이 GPT-3 대비 약 25% 감소
이 결과는 모델 크기보다 학습 방법론이 중요하다는 것을 보여줬다. "더 크게 만드는 것"이 유일한 답이 아니라, "인간의 의도에 맞게 정렬하는 것"이 핵심이라는 교훈이다.
5.5 InstructGPT에서 ChatGPT로
InstructGPT의 기술은 2022년 11월에 출시된 ChatGPT의 핵심 기반이 되었다. ChatGPT는 GPT-3.5(GPT-3의 개선 버전)에 대화 형태의 RLHF를 적용한 모델이다.
ChatGPT의 출시는 AI 역사의 분기점이었다. 출시 5일 만에 100만 사용자, 2개월 만에 1억 사용자를 달성하며, AI가 일반 대중에게 직접 다가가는 시대를 열었다. InstructGPT 논문의 기술적 기여가 없었다면, 이 혁명은 불가능했을 것이다.
6. GPT-4 (2023): 멀티모달과 예측 가능한 스케일링
6.1 논문 개요
논문: "GPT-4 Technical Report" 저자: OpenAI 발표: 2023년 3월 (arXiv: 2303.08774)
GPT-4 Technical Report는 이전 GPT 논문들과 근본적으로 다르다. 아키텍처, 모델 크기, 학습 데이터, 학습 비용 등 핵심 정보가 대부분 비공개이다. OpenAI는 "경쟁 환경과 안전 고려"를 이유로 이러한 정보를 공개하지 않았다. 이는 Open AI라는 이름과의 괴리를 두고 많은 비판을 받았다.
그럼에도 불구하고, 논문은 몇 가지 중요한 기술적 기여를 담고 있다.
6.2 멀티모달 입력
GPT-4의 가장 눈에 띄는 새로운 능력은 이미지와 텍스트를 동시에 입력으로 받을 수 있다는 것이다. 출력은 여전히 텍스트만 가능하다.
멀티모달 능력의 예시:
- 이미지에 포함된 텍스트 인식 및 해석
- 차트와 그래프의 데이터 분석
- 유머 이미지의 내용 설명과 유머 포인트 해석
- 과학 다이어그램의 해석과 관련 문제 풀이
이 멀티모달 능력은 이후 GPT-4V(Vision)로 발전하여, 실제 서비스에 적용되었다.
6.3 Predictable Scaling
GPT-4 논문의 가장 중요한 기술적 기여는 Predictable Scaling 방법론이다.
핵심 아이디어는, 작은 모델의 성능으로부터 큰 모델의 성능을 정확하게 예측할 수 있다는 것이다. OpenAI는 GPT-4와 동일한 방법론으로 학습한 소규모 모델들의 성능을 측정하고, 이로부터 GPT-4의 최종 성능을 예측한 뒤, 실제 학습 결과와 비교했다.
Loss 예측: 1,000배에서 10,000배 작은 Compute를 사용하는 모델들의 학습으로부터, GPT-4의 최종 Loss를 Power Law로 예측했다. 실제 학습 결과는 예측과 매우 근접했다.
HumanEval Coding 성능 예측: 코딩 벤치마크에서의 Pass Rate도 소규모 모델의 결과로부터 예측할 수 있었다. 이는 Loss뿐만 아니라 특정 태스크의 성능도 예측 가능하다는 것을 시사한다.
이 Predictable Scaling 방법론의 실용적 가치는 매우 크다. 수천만~수억 달러가 소요되는 대규모 모델 학습에 착수하기 전에, 소규모 실험으로 최종 성능을 예측하여 투자 대비 효과를 사전에 평가할 수 있기 때문이다.
다만 논문은 Inverse Scaling이나 갑작스러운 능력 창발(Emergent Abilities)과 같은 예측하기 어려운 현상도 존재함을 인정했다. 특히 특정 능력이 특정 규모에서 갑자기 나타나는 Emergent Abilities는 Predictable Scaling의 주요 예외 사항이다.
6.4 전문 시험 성능
GPT-4는 인간을 위해 설계된 다양한 전문 시험에서 인상적인 성능을 보였다. 모델은 이 시험들을 위한 별도의 학습을 받지 않았다.
| 시험 | GPT-4 성적/백분위 | GPT-3.5 성적/백분위 | 비고 |
|---|---|---|---|
| Uniform Bar Exam (MBE+MEE+MPT) | ~298/400 (상위 10%) | ~213/400 (하위 10%) | 미국 변호사 시험 |
| LSAT | 163 (상위 12%) | 149 (하위 40%) | 로스쿨 입학 시험 |
| SAT Evidence-Based R&W | 710/800 (93rd) | 670/800 (87th) | 미국 대학입학시험 |
| SAT Math | 700/800 (89th) | 590/800 (70th) | 미국 대학입학시험 |
| GRE Quantitative | 163/170 (80th) | 157/170 (62nd) | 대학원 입학 시험 |
| GRE Verbal | 169/170 (99th) | 154/170 (63rd) | 대학원 입학 시험 |
| AP Biology | 5 (85~100th) | 4 (62~85th) | AP 생물학 |
| AP Chemistry | 4 (71~88th) | 2 (22~46th) | AP 화학 |
| AP Calculus BC | 4 (43~59th) | 1 (0~7th) | AP 미적분 |
| AP English Literature | 2 (8~22nd) | 2 (8~22nd) | AP 영문학 |
몇 가지 주목할 패턴:
- 법률, 과학, 수학 분야에서 GPT-3.5 대비 극적인 성능 향상 (Bar Exam: 하위 10% → 상위 10%)
- 언어/문학 분야에서는 상대적으로 약한 성능 (AP English Literature: 하위 22%)
- 수학적 추론은 개선되었지만 여전히 상위권은 아님 (AP Calculus BC: 43~59th percentile)
6.5 Safety와 Alignment 개선
GPT-4는 안전성 면에서도 GPT-3.5 대비 크게 개선되었다.
RLHF 기반 안전 훈련:
- 학습 과정에 **추가 안전 보상 신호(Safety Reward Signal)**를 도입
- GPT-4 Zero-shot Classifier를 활용하여 안전 경계와 응답 스타일을 판단
- 허용/비허용 카테고리 모두에 안전 보상을 적용하여, 유효한 요청의 과잉 거부를 방지
정량적 개선:
- 비허용 콘텐츠 요청에 대한 응답 비율이 GPT-3.5 대비 82% 감소
- 민감한 요청(의료 조언, 자해 등)에 대한 정책 준수율이 29% 향상
- 내부 적대적 사실성(Adversarial Factuality) 평가에서 GPT-3.5 대비 40% 높은 점수
- TruthfulQA에서 RLHF 후 약 60% → 80%로 향상
전문가 Red-teaming:
- 50명 이상의 도메인 전문가(AI 안전, 사이버보안, 생물학적 위험, 국제 안보 등)가 적대적 테스트에 참여
- 고위험 시나리오(자율적 복제, 화학/생물 무기 정보 등)에 대한 평가
6.6 GPT-4의 한계
논문에서 명시적으로 인정한 한계는 다음과 같다.
- Hallucination: 여전히 사실과 다른 정보를 "자신 있게" 생성할 수 있다. RLHF로 크게 개선되었지만 완전히 해결되지는 않았다.
- Context Window 제한: 학습 당시 8K/32K 토큰으로 제한되어 매우 긴 문서 처리에 한계가 있다.
- 학습 데이터 Cutoff: 학습 데이터의 시점 이후 정보를 모른다 (2021년 9월까지의 데이터로 학습).
- 추론의 불완전성: 복잡한 다단계 추론에서 실수할 수 있으며, 특히 수학적 증명이나 코드의 미묘한 버그에서 오류가 발생한다.
- 편향과 보정: 사회적 편향이 완전히 제거되지 않았으며, 모델의 확신도(Confidence)가 실제 정확도와 반드시 일치하지 않는다.
7. Scaling Laws 심층 분석
7.1 Kaplan Scaling Laws (2020)
GPT-3와 동시기에 OpenAI의 Jared Kaplan 등이 발표한 "Scaling Laws for Neural Language Models"은 대규모 언어 모델 연구의 이론적 기반을 제공했다.
핵심 발견 — Power Law 관계:
언어 모델의 Cross-entropy Loss 은 모델 파라미터 수 , 데이터셋 크기 , 학습에 사용된 Compute 와 각각 Power Law 관계를 가진다.
이 관계는 7 Orders of Magnitude 이상에 걸쳐 성립하며, 매우 안정적인 추세선을 보인다.
Compute-optimal Allocation (Kaplan 버전):
고정된 Compute Budget 에서 Loss를 최소화하려면, 모델 크기를 키우되 데이터는 상대적으로 적게 사용하는 것이 최적이라고 결론지었다. 구체적으로, Compute가 10배 증가하면 모델 크기는 5.5배 키우고 데이터는 1.8배만 늘리는 것이 효율적이라고 했다.
이 결과는 "모델을 키우는 것이 데이터를 늘리는 것보다 효율적"이라는 해석으로 이어졌고, GPT-3의 175B 파라미터라는 스케일을 정당화하는 근거가 되었다.
7.2 Chinchilla Scaling Laws (2022)
Kaplan의 Scaling Laws에 대한 중요한 수정이 2022년 DeepMind의 "Training Compute-Optimal Large Language Models"(일명 Chinchilla 논문)에서 제시되었다.
핵심 발견: 기존 모델은 Under-trained다.
Chinchilla 논문은 Kaplan의 결론과 달리, 모델 크기와 학습 데이터를 거의 동등한 비율로 늘려야 한다고 주장했다. 구체적으로, 파라미터 1개당 약 20개의 학습 토큰이 Compute-optimal이라는 것이다.
이 기준으로 보면, GPT-3(175B 파라미터, 300B 토큰)는 학습 데이터가 부족했다. Compute-optimal으로 학습하려면 약 3.5T(3조 5천억) 토큰이 필요했다.
Chinchilla vs. GPT-3:
| 항목 | GPT-3 | Chinchilla |
|---|---|---|
| 파라미터 | 175B | 70B |
| 학습 토큰 | 300B | 1.4T |
| 토큰/파라미터 비율 | 1.7 | 20 |
| MMLU 성능 | 70.0% | 73.4% |
| Compute | ~3,640 PF-days | ~5,200 PF-days |
Chinchilla는 GPT-3보다 2.5배 작은 모델이지만, 4.7배 많은 데이터를 학습하여 더 높은 성능을 달성했다. 이 결과는 이후의 대규모 모델 학습 방향에 근본적인 영향을 미쳤다.
7.3 Scaling Laws가 GPT-4에 미친 영향
GPT-4의 Predictable Scaling은 이러한 Scaling Laws 연구의 직접적인 응용이다. 작은 모델의 Loss가 Power Law를 따른다면, 그 추세선을 외삽(Extrapolate)하여 큰 모델의 Loss를 예측할 수 있다.
GPT-4 논문이 보여준 것은 이 예측이 놀라울 정도로 정확하다는 것이다. 이는 Scaling Laws가 단순한 경험적 관찰이 아니라, 언어 모델의 학습 과정에 대한 깊은 구조적 특성을 반영하고 있음을 시사한다.
다만 이 예측 가능성에는 중요한 한계가 있다.
- Loss ≠ Capability: 전체 Loss의 감소가 특정 능력의 향상과 직결되지 않을 수 있다
- Emergent Abilities: 특정 규모에서 갑자기 나타나는 능력은 Power Law로 예측하기 어렵다
- Inverse Scaling: 일부 태스크에서는 모델이 커질수록 오히려 성능이 하락하는 현상이 관찰된다
- Task-specific Variability: 태스크에 따라 Scaling 효율이 크게 다르다
8. 전체 아키텍처 비교
8.1 세대별 아키텍처 비교표
| 항목 | GPT-1 | GPT-2 (XL) | GPT-3 (175B) | InstructGPT | GPT-4 |
|---|---|---|---|---|---|
| 발표 시기 | 2018.06 | 2019.02 | 2020.05 | 2022.03 | 2023.03 |
| 파라미터 수 | 117M | 1,542M | 175,000M | 1,300M~175,000M | 비공개 |
| 레이어 수 | 12 | 48 | 96 | 96 (175B 기준) | 비공개 |
| Hidden Dim | 768 | 1,600 | 12,288 | 12,288 (175B 기준) | 비공개 |
| Attention Head 수 | 12 | 25 | 96 | 96 (175B 기준) | 비공개 |
| Head Dimension | 64 | 64 | 128 | 128 (175B 기준) | 비공개 |
| Context Window | 512 | 1,024 | 2,048 | 2,048 | 8,192 / 32,768 |
| Vocabulary Size | 40,000 | 50,257 | 50,257 | 50,257 | ~100,000 (추정) |
| 학습 데이터 | BooksCorpus (5GB) | WebText (40GB) | 혼합 (570GB) | GPT-3 + 인간 피드백 | 비공개 |
| 학습 토큰 수 | ~1B (추정) | ~10B (추정) | 300B | 300B + RLHF | 비공개 |
| 토큰화 | BPE (40K merges) | Byte-level BPE | Byte-level BPE | Byte-level BPE | 비공개 |
| Positional Enc. | Learned | Learned | Learned | Learned | 비공개 |
| 활성화 함수 | GELU | GELU | GELU | GELU | 비공개 |
| LayerNorm | Post-norm | Pre-norm | Pre-norm | Pre-norm | 비공개 |
| 학습 방법 | LM + Fine-tuning | LM only | LM only | LM + SFT + RLHF | LM + SFT + RLHF |
| 멀티모달 | No | No | No | No | Yes (Image Input) |
| Sparse Attention | No | No | Yes (부분적) | Yes (부분적) | 비공개 |
8.2 패러다임의 진화
아키텍처 자체보다 중요한 것은 패러다임의 진화다.
GPT-1: Pre-train → Fine-tune (각 태스크마다 미세조정 필요)
↓
GPT-2: Pre-train → Zero-shot (미세조정 없이 직접 사용)
↓
GPT-3: Pre-train → In-context Learning (예시만으로 태스크 수행)
↓
InstructGPT: Pre-train → SFT → RLHF (인간 피드백으로 정렬)
↓
GPT-4: Pre-train → SFT → RLHF + Multimodal (멀티모달 + 안전성 강화)
이 진화의 일관된 방향은 사용자의 개입을 줄이는 것이다. GPT-1은 각 태스크마다 학습 데이터와 미세조정이 필요했지만, GPT-4에 이르러서는 자연어 지시만으로 거의 모든 태스크를 수행할 수 있게 되었다.
9. GPT의 영향: AI 생태계의 변혁
9.1 ChatGPT와 AI 대중화
GPT 시리즈의 가장 직접적인 영향은 ChatGPT를 통한 AI의 대중화다.
ChatGPT 성장 지표:
- 2022년 11월 30일 출시
- 5일 만에 100만 사용자
- 2개월 만에 1억 사용자 (역대 최빠른 기록, TikTok의 9개월을 압도)
- 2024년 말 기준 주간 활성 사용자 7억 명 이상
ChatGPT는 "AI"라는 개념을 연구자와 개발자의 전유물에서 일반 대중의 일상 도구로 전환시켰다. 이 전환은 InstructGPT의 RLHF 기술 없이는 불가능했다.
9.2 API Economy와 AI-native 서비스
GPT-3의 API 공개(2020년 6월)는 AI API Economy의 시작을 알렸다.
새로운 비즈니스 모델:
- Wrapper 서비스: GPT API 위에 특화된 UX를 구축 (Jasper, Copy.ai 등)
- Vertical AI: 특정 도메인에 최적화된 AI 솔루션 (Harvey for Law, Hippocratic AI for Healthcare)
- AI-augmented SaaS: 기존 SaaS에 AI 기능을 통합 (Notion AI, GitHub Copilot 등)
- Agent Framework: GPT를 핵심 추론 엔진으로 활용하는 자율 에이전트 (AutoGPT, LangChain 등)
9.3 학술적 영향
GPT 시리즈는 학술 연구의 방향에도 근본적인 영향을 미쳤다.
새로운 연구 분야의 탄생:
- Prompt Engineering: In-context Learning의 효과를 극대화하는 프롬프트 설계 연구
- Alignment Research: RLHF를 넘어선 다양한 정렬 기법 (DPO, ORPO, Constitutional AI 등)
- Mechanistic Interpretability: 대규모 모델 내부의 작동 원리를 이해하려는 연구
- Scaling Laws: 모델 성능과 자원 간의 관계를 정량적으로 분석하는 연구
- Evaluation: 기존 벤치마크의 한계를 인식하고 새로운 평가 방법론을 개발하는 연구
연구 방법론의 변화:
- "모델 아키텍처 혁신" 중심에서 "데이터, 학습 방법, 정렬" 중심으로 연구 초점 이동
- Compute 요구량 증가로 인한 학술 연구와 산업 연구의 격차 심화
- Open-source 모델(LLaMA, Mistral 등)의 등장으로 학술 접근성 부분적 회복
9.4 산업과 사회에 미친 영향
- 교육: AI 튜터, 자동 채점, 맞춤형 학습 콘텐츠 생성
- 의료: 의료 문서 작성 보조, 진단 지원, 약물 상호작용 분석
- 법률: 판례 검색, 계약서 분석, 법률 자문 초안 작성
- 소프트웨어 개발: 코드 생성, 디버깅, 문서화 (GitHub Copilot)
- 콘텐츠 창작: 글쓰기 보조, 번역, 요약, 아이디어 생성
10. 한계점과 비판
10.1 Hallucination (환각)
GPT 시리즈의 가장 심각한 한계는 사실과 다른 정보를 확신에 차서 생성하는 Hallucination 문제다.
Hallucination의 유형:
- 사실적 오류: 존재하지 않는 인용, 잘못된 통계, 가짜 역사적 사실
- 논리적 비약: 전제에서 결론으로의 비약적 추론
- 자기 모순: 같은 대화 내에서 상반되는 주장
근본 원인:
- Auto-regressive 모델은 "그럴듯한 다음 토큰"을 생성할 뿐, 사실 여부를 검증하지 않는다
- 학습 데이터에 오류가 포함되어 있으며, 모델이 이를 구분하지 못한다
- RLHF가 "자신 있게 말하는 것"을 보상하여 오히려 자신감 있는 오류를 조장할 수 있다
GPT-4는 RLHF를 통해 Hallucination을 GPT-3.5 대비 약 40% 감소시켰지만, 완전한 해결은 아직 요원하다. 이는 현재 LLM 연구의 가장 활발한 분야 중 하나다.
10.2 Bias (편향)
대규모 언어 모델은 학습 데이터에 내재된 사회적 편향을 반영하고 때로는 증폭한다.
편향의 유형:
- 성별 편향: 직업, 성격 특성 등에서의 고정관념 반영
- 인종/민족 편향: 특정 인종에 대한 부정적 연관성
- 문화적 편향: 영어권, 특히 미국 중심의 세계관
- 사회경제적 편향: 특정 계층의 관점 과대 대표
GPT-3 논문은 이를 명시적으로 인정하고, Gender, Race, Religion 관련 편향 분석을 포함했다. InstructGPT과 GPT-4는 RLHF를 통해 편향을 줄이려 했지만, 학습 데이터 자체의 편향을 완전히 제거하는 것은 근본적으로 어려운 문제다.
10.3 Environmental Cost (환경 비용)
대규모 모델 학습의 환경적 비용은 점점 더 큰 우려가 되고 있다.
학습 탄소 배출 추정:
- GPT-3: 약 552 톤 CO2e (미국 평균 자동차 약 120대의 1년 배출량에 해당)
- GPT-4: 약 15,000 톤 CO2e로 추정 (비공식 추정치, GPT-3의 약 27배)
수자원 소비:
- Microsoft는 GPT-3 학습 과정에서 약 700,000 리터의 담수를 데이터센터 냉각에 사용한 것으로 보고됨
비판과 반론:
- 단일 학습의 비용이 크지만, 학습된 모델은 수억 명이 사용하므로 1인당 비용은 미미하다는 반론
- 모델 효율화(Distillation, Quantization, Pruning)와 하드웨어 발전으로 비용이 감소하고 있다
- 그러나 Jevons Paradox(효율 향상이 오히려 총 소비 증가를 유발)의 우려도 존재
10.4 투명성과 재현 가능성
GPT 시리즈에 대한 가장 지속적인 비판 중 하나는 투명성 부족이다.
- GPT-1: 논문, 코드, 모델 공개 (비교적 개방적)
- GPT-2: 논문 공개, 모델은 단계적 공개 ("too dangerous" 논란)
- GPT-3: 논문 공개, 모델은 API로만 접근 가능
- GPT-4: 아키텍처, 데이터, 학습 비용 등 핵심 정보 비공개
이 추세는 "Open" AI라는 조직 이름과의 괴리를 심화시켰고, 학술 커뮤니티의 재현 가능성(Reproducibility)을 심각하게 저해했다. 이에 대한 반발로 Meta의 LLaMA, Mistral AI의 Mistral/Mixtral 등 개방형 모델의 중요성이 더욱 부각되었다.
10.5 경제적 불평등과 Compute Divide
대규모 모델 학습에 필요한 자원의 집중은 AI 연구의 경제적 불평등을 심화시킨다.
- GPT-3 학습 비용: 약 460만 달러 (추정)
- GPT-4 학습 비용: 약 1억 달러 이상 (추정)
- 이 규모의 투자는 소수의 대형 기업만 가능하며, 대학과 소규모 연구소는 구조적으로 배제된다
11. 정리: GPT가 남긴 유산
GPT 시리즈의 5편의 논문을 관통하는 핵심 통찰을 정리하면 다음과 같다.
1. Scale is (almost) all you need
GPT-1(117M) → GPT-2(1.5B) → GPT-3(175B)로의 Scaling은 단순히 "같은 것을 더 크게"가 아니라, 질적으로 새로운 능력의 창발로 이어졌다. Zero-shot, In-context Learning, 복잡한 추론 등은 충분한 규모에서만 나타나는 Emergent Abilities였다.
2. Alignment changes everything
InstructGPT는 모델 크기보다 학습 방법론이 중요할 수 있음을 보여줬다. 1.3B InstructGPT가 175B GPT-3를 이긴 것은, 단순한 능력(Capability)과 유용성(Usefulness) 사이에 큰 간극이 있으며, RLHF가 이 간극을 메울 수 있음을 입증했다.
3. The bitter lesson revisited
Rich Sutton의 "The Bitter Lesson" — 범용적인 방법 + 더 많은 Compute가 특화된 방법을 이긴다 — 이 GPT 시리즈에서 반복적으로 확인되었다. Task-specific 아키텍처 대신 범용 Transformer + 대규모 사전학습이 압도적으로 효과적이었다.
4. Data is the new bottleneck
Chinchilla의 교훈이후, 모델 크기와 함께 학습 데이터의 양과 질이 핵심 병목으로 부상했다. 인터넷의 고품질 텍스트는 유한하며, Synthetic Data 생성이 새로운 연구 방향으로 부상하고 있다.
5. Safety is not optional
GPT-2의 "too dangerous to release" 논란부터 GPT-4의 Red-teaming까지, 안전성은 선택이 아닌 필수가 되었다. AI 모델이 강력해질수록 안전하고 책임감 있는 개발의 중요성도 비례하여 커진다.
GPT 시리즈는 아직 끝나지 않았다. GPT-5, 그리고 그 너머의 모델이 어떤 능력을 보여줄지는 알 수 없지만, 한 가지는 분명하다. GPT 시리즈가 확립한 "대규모 사전학습 + 인간 피드백 정렬"의 패러다임은 현대 AI의 근간으로 자리잡았고, 이를 이해하는 것은 AI의 미래를 이해하는 데 필수적이라는 것이다.
12. References
GPT-1: Radford, A., Narasimhan, K., Salimans, T., & Sutskever, I. (2018). "Improving Language Understanding by Generative Pre-Training." OpenAI Paper
GPT-2: Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., & Sutskever, I. (2019). "Language Models are Unsupervised Multitask Learners." OpenAI Paper
GPT-3: Brown, T. B., Mann, B., Ryder, N., et al. (2020). "Language Models are Few-Shot Learners." NeurIPS 2020. arXiv:2005.14165
InstructGPT: Ouyang, L., Wu, J., Jiang, X., et al. (2022). "Training Language Models to Follow Instructions with Human Feedback." NeurIPS 2022. arXiv:2203.02155
GPT-4: OpenAI. (2023). "GPT-4 Technical Report." arXiv:2303.08774
Scaling Laws: Kaplan, J., McCandlish, S., Henighan, T., et al. (2020). "Scaling Laws for Neural Language Models." arXiv:2001.08361
Chinchilla: Hoffmann, J., Borgeaud, S., Mensch, A., et al. (2022). "Training Compute-Optimal Large Language Models." arXiv:2203.15556
Transformer: Vaswani, A., Shazeer, N., Parmar, N., et al. (2017). "Attention Is All You Need." NeurIPS 2017. arXiv:1706.03762
PPO: Schulman, J., Wolski, F., Dhariwal, P., Radford, A., & Klimov, O. (2017). "Proximal Policy Optimization Algorithms." arXiv:1707.06347
RLHF: Christiano, P. F., Leike, J., Brown, T., et al. (2017). "Deep Reinforcement Learning from Human Preferences." NeurIPS 2017. arXiv:1706.03741
Sparse Transformer: Child, R., Gray, S., Radford, A., & Sutskever, I. (2019). "Generating Long Sequences with Sparse Transformers." arXiv:1904.10509
BPE: Sennrich, R., Haddow, B., & Birch, A. (2016). "Neural Machine Translation of Rare Words with Subword Units." ACL 2016. arXiv:1508.07909
Carbon Footprint: Patterson, D., Gonzalez, J., Le, Q., et al. (2021). "Carbon Emissions and Large Neural Network Training." arXiv:2104.10350