Published on2026년 3월 25일BFCL 벤치마크 완전 가이드 2025: Tool Calling 성능 평가, 리더보드 분석, 모델 비교bfclbenchmarktool-callingfunction-callingevaluationleaderboardllmclaudegptgemini2026-032026-03-25BFCL(Berkeley Function Calling Leaderboard)의 모든 것! 벤치마크 카테고리(Simple/Multiple/Parallel/Relevance/AST), 평가 메트릭, 모델 성능 비교(Claude/GPT/Gemini/Llama), 자체 모델 평가 방법, Tool Calling 개선 전략.
Published on2026년 3월 17일자연어 처리(NLP) 완전 정복 가이드: Zero to Hero - 텍스트 처리부터 LLM까지nlpnatural-language-processingtransformerbertgptdeep-learningai2026-032026-03-17자연어 처리의 기초부터 최신 LLM까지 완전히 정복하는 가이드. 텍스트 전처리, Word2Vec, RNN/LSTM, Attention, Transformer, BERT, GPT까지 실전 코드와 함께 단계별로 배웁니다.
Published on2026년 3월 17일LLM 처음부터 만들기: 코드로 이해하는 GPT 완전 구현 가이드llmgpttransformerfrom-scratchdeep-learningpytorch2026-032026-03-17대규모 언어 모델(LLM)을 처음부터 직접 구현하며 완전히 이해하는 가이드. 토크나이저부터 Transformer 아키텍처, 사전학습, 파인튜닝까지 PyTorch로 작은 GPT를 완전히 구축합니다.
Published on2026년 3월 3일나만의 GPT 만들기 — nanoGPT로 처음부터 학습하는 언어 모델aillmgptnanoGPTtransformerdeep-learningfrom-scratch2026-032026-03-03Andrej Karpathy의 nanoGPT를 활용해 GPT 언어 모델을 처음부터 학습합니다. Transformer 아키텍처의 핵심 원리, 토크나이저, Self-Attention, 학습 루프까지 코드와 함께 완전 해부합니다.
Published on2026년 3월 1일GPT 시리즈 논문 완벽 분석: GPT-1부터 GPT-4까지, 언어 모델이 세상을 바꾸기까지의 여정gptopenailanguage-modeltransformerpre-trainingrlhfinstruction-tuningscaling-lawai-papersdeep-learningOpenAI의 GPT 시리즈를 세대별로 완벽 분석한다. GPT-1의 비지도 사전학습, GPT-2의 Zero-shot 학습, GPT-3의 In-context Learning과 Scaling Law, InstructGPT의 RLHF, GPT-4의 멀티모달까지 — 각 논문의 핵심 기여와 아키텍처 진화를 수식과 함께 정리한다.