Skip to content

Language Learning Quiz

Based on: 2025 오픈소스 AI 모델 완전 비교: DeepSeek R1 vs Llama 4 vs Qwen 3 vs Mistral — 누가 왕인가

Do you know this expression?

Mixture of Experts (MoE)
전문가 혼합 모델

여러 전문가 중 일부만 활성화하여 효율적으로 추론하는 아키텍처

Tap to flip