Published on2026년 3월 17일강화학습 완전 정복: DQN, PPO부터 RLHF, DPO까지 LLM 정렬까지강화학습PPODQNRLHFDPOLLM정렬2026-032026-03-17MDP 기초부터 DQN, PPO, SAC, RLHF, DPO까지. LLM 정렬에 사용되는 강화학습 기법을 PyTorch Stable-Baselines3 코드와 함께 완전 정복합니다.
Published on2026년 3월 13일RLHF에서 DPO까지: LLM 정렬(Alignment) 기술 논문 심층 분석ai-papersrlhfdpoalignmentppoconstitutional-aillmLLM 정렬 기술의 핵심 논문들을 심층 분석합니다. InstructGPT의 RLHF 파이프라인, Anthropic의 Constitutional AI, DPO의 수학적 기반, PPO 학습 안정성, 그리고 KTO/IPO/ORPO 등 최신 연구까지 체계적으로 비교하고 실무 적용 방안을 정리합니다.
Published on2026년 3월 1일강화학습(Reinforcement Learning) 완벽 가이드: 이론부터 최신 알고리즘, 실전 구현까지reinforcement-learningdeep-learningdqnpporlhfa3cq-learningpolicy-gradientai-papersalphago강화학습의 핵심 이론인 MDP, Bellman 방정식부터 Q-Learning, DQN, Policy Gradient, A3C, PPO, SAC까지 주요 알고리즘을 수식으로 유도하고, RLHF, AlphaGo, 로보틱스 응용 사례와 PyTorch 구현 예제를 총정리한다.