Published on2026년 3월 7일Mamba와 State Space Model 논문 심층 분석: 선택적 SSM부터 Mamba-2까지 Transformer 대안 아키텍처ai-papersmambastate-space-modelssmtransformersequence-modeling2026-032026-03-07Mamba 논문의 선택적 State Space Model 메커니즘, S4에서 Mamba-2로의 발전 과정, Transformer 대비 선형 시간 복잡도의 장단점, 그리고 비전·오디오·시계열 분야 적용 사례까지 다루는 SSM 아키텍처 종합 분석.
Published on2026년 3월 3일RWKV: Reinventing RNNs for the Transformer Era — v4에서 v7 Goose까지ai-papersrwkvrnnlinear-attentionstate-space-modelmarch-20262026-03-03Transformer의 O(N²) 한계를 극복하는 RWKV 아키텍처를 분석합니다. Linear Attention과 RNN의 융합, 선택적 상태 공간 메커니즘, v7 Goose의 혁신까지 코드와 함께 살펴봅니다.
Published on2026년 3월 2일Mamba: Linear-Time Sequence Modeling with Selective State Spaces 논문 분석ai-papersmambassmstate-space-modeltransformerdeep-learningTransformer의 대안으로 주목받는 Mamba 아키텍처를 깊이 분석합니다. Selective State Space Model의 핵심 아이디어, 하드웨어 최적화 알고리즘, 실험 결과까지 논문의 주요 내용을 코드와 함께 살펴봅니다.
Published on2026년 3월 2일Mamba 논문 리뷰: Selective State Space Models로 Transformer를 넘어서mambastate-space-modelssmtransformerlinear-attentionsequence-modelingdeep-learningpaper-reviewselective-scanmamba2Mamba(Selective State Space Models) 논문을 심층 리뷰한다. S4에서 Mamba까지의 발전 과정, Selective Scan 메커니즘, Hardware-Aware 알고리즘, 그리고 Mamba-2의 State Space Duality까지 코드와 함께 분석.