Published on2026년 3월 17일LLM 사전 학습 & 스케일링 법칙: Chinchilla, Flash Attention, MoE까지LLM사전학습스케일링법칙ChinchillaFlashAttentionMixtralMoEDeepSeek2026-032026-03-17Chinchilla 스케일링 법칙, Common Crawl 데이터 준비, Flash Attention 2, GQA, MoE 아키텍처부터 DeepSeek-V3, Llama 3.1 사전 학습 레시피까지 LLM 사전 학습 완전 가이드입니다.