Skip to content

Split View: AI 제품 디자인 완전 가이드: 생성 UI, 신뢰, 피드백, 스트리밍, 에이전트 UX, 한국 문화 특화 (2025)

|

AI 제품 디자인 완전 가이드: 생성 UI, 신뢰, 피드백, 스트리밍, 에이전트 UX, 한국 문화 특화 (2025)

Season 4 Ep 12 — Ep 11까지가 "엔지니어링이 안정되는 단계"였다면 Ep 12는 사용자에게 사랑받는 단계. 모델이 아무리 좋아도 UX가 부족하면 제품은 안 된다.

Prologue — "좋은 AI 제품 = 좋은 UX가 아니다"

2023년의 많은 AI 제품은 "ChatGPT 포장지"였다. 텍스트 입력창 + 응답창 + 👍/👎. 2025년 현재 이 포맷만 가진 제품은 대부분 실패하거나 특정 틈새에만 살아남았다.

이유:

  • ChatGPT 본가가 계속 강해진다 → 단순 포장으로는 차별화 없음
  • 사용자가 AI의 약점(환각, 지연, 느닷없는 거절)을 인지하기 시작 → 신뢰 디자인 필요
  • 비-기술 사용자에게 "프롬프트 잘 쓰기"를 요구할 수 없음

그래서 2025년의 AI 제품 디자인은:

"제약 안에서 신뢰를 만드는 UX 설계"

이 글은 그 구체적 패턴을 정리한다.


1장 · 확정적 UI vs 생성적 UI

1.1 확정적 UI

  • 버튼·폼·탭·메뉴 — 결과가 예측 가능
  • 학습 곡선 완만, 실수 교정 쉬움
  • 80년 HCI 전통의 최적화

1.2 생성적 UI (Generative UI)

  • AI가 즉석에서 버튼·카드·차트·폼을 생성
  • Tailwind/디자인 시스템 토큰과 함께 동작
  • 맥락에 따라 UI가 변형 — 매우 강력하지만 예측 어려움

1.3 하이브리드 패턴

  • 뼈대는 확정적, 콘텐츠는 생성적 (목록·요약·인용)
  • 생성 결과를 확정적 컴포넌트로 렌더 (JSON → Card, Markdown → 안전한 HTML)
  • Actionable Chip: 모델이 제안하고, 사용자가 탭하면 확정 동작

1.4 예

  • Notion AI의 슬래시 명령: 확정 + 생성
  • Perplexity: 확정적 레이아웃 안에서 생성된 요약/인용
  • Cursor: IDE 확정적 틀 + 인라인 생성 코드 제안

"생성이 자유로울수록, 확정적 가드레일이 더 필요하다."


2장 · 신뢰(Trust) 디자인

2.1 왜 신뢰가 핵심인가

  • AI 출력은 확률적이다. 사용자는 매번 "진짜 맞을까?"를 속으로 묻는다
  • 한 번 큰 오류를 내면, 맞는 답도 의심받는다
  • 신뢰 ≠ 맞음. 신뢰 = 사용자가 AI의 한계를 예측할 수 있음

2.2 7가지 패턴

  1. 인용(Citation): 근거 문서·페이지·구간 표시
  2. 불확실성 표시: "85% 확신", "정보 부족" 같은 언어
  3. 편집 가능: 응답을 바로 수정·삭제·재생성
  4. 출처의 시각적 차별: AI 생성 영역은 아이콘/배경으로 구분
  5. 세부 보기(Show work): 추론 과정·검색 결과 펼쳐보기
  6. 업데이트 주기 명시: "최신 데이터: 2025-04-10"
  7. 거부의 예의: "이건 도와드릴 수 없어요" + 대안 제시

2.3 신뢰를 깨는 것

  • 출처 없는 자신만만한 답
  • 환각을 "그럴듯하게" 늘어놓음
  • 실패를 조용히 숨김(에러 메시지 없음)
  • 과도한 생성적 UI로 인터페이스 매번 변형

3장 · 피드백(Feedback) UX

3.1 수집

  • 👍/👎 버튼: 즉시 피드백
  • 선택형 이유(체크박스): "부정확", "불완전", "위험", "스타일 별로"
  • 자유 텍스트: 드물지만 깊은 통찰
  • 수정된 응답 자체가 피드백 (재생성·편집)

3.2 활용

  • 👎 케이스 → 회귀 평가셋 후보
  • 👍 케이스 → Preference 학습 데이터 (Ep 4 DPO)
  • 수정 diff → 스타일·포맷 학습

3.3 UX 배치

  • 인라인 버튼이 "대시보드로 이동" 방식보다 참여율 5–10배 높음
  • 피드백 즉시 "감사합니다" 확인
  • 개인 데이터가 어떻게 쓰이는지 투명 공개

4장 · 스트리밍·지연·진행 UX

4.1 스트리밍 vs 일괄

  • 스트리밍: 시각적 빠름, 긴 응답도 지루하지 않음
  • 일괄: 포맷이 복잡(표·JSON)하거나 결과를 한 번에 검증해야 할 때

4.2 지연 처리

  • Skeleton UI: 레이아웃만 먼저
  • Typing indicator: "생각 중…" / 점 세 개
  • Progressive content: 제목 → 요약 → 본문 순차 노출
  • Budget 표시: "예상 남은 시간 5초"
  • 취소·대기: 사용자가 중단 가능

4.3 진행 상태

  • 에이전트 작업: "검색 중", "분석 중", "요약 작성 중" 단계 표시
  • Todo 체크리스트: Claude Code 식. 각 스텝 완료 체크
  • Replay: 완료 후 과정을 되돌아볼 수 있음

4.4 지루함 방지

  • 긴 대기엔 마이크로 인터랙션(애니메이션·재미있는 메시지)
  • 단, 지나친 유머는 전문성 저하

5장 · 에이전트 UX

5.1 3대 과제

  1. 진행 가시성: 지금 뭘 하고 있나
  2. 승인·중단: 위험 동작 전 멈춤
  3. 복구·리플레이: 실패해도 수습

5.2 진행 가시성

  • Timeline: 툴 호출·결과를 시계열로
  • Todo: "1. 파일 열기 ✓ 2. 수정 중… 3. 테스트 실행 대기"
  • Cost/Time 미터: 예상 비용·시간 표시

5.3 승인 게이트

  • 민감 동작(결제·삭제·외부 전송)은 사람 확인 팝업
  • 단축: "다음에도 자동 승인" 옵션(명시적)
  • 일괄 승인 남용 방지

5.4 실패 UX

  • 명확한 에러 이유 + 재시도 버튼
  • 에이전트가 스스로 포기한 경우 "이유와 다음 대안" 제시
  • 사용자가 "도와드릴까요?"로 합류 가능

5.5 리플레이와 공유

  • 에이전트 작업을 링크로 공유(내부)
  • 시뮬레이션·디버깅
  • 새 팀원 학습 자료

6장 · Voice UX (Ep 9 연장)

6.1 디자인 원칙

  • 짧고 명확한 응답(Ep 9 12원칙 요약)
  • Turn-taking 존중(끊김·인터럽션 자연스럽게)
  • 불확실성 말하기 ("제가 이해한 건…")
  • 에스컬레이션 트리거 (몇 차례 실패하면 사람)

6.2 멀티모달 통합

  • 음성 + 화면: 음성으로 안내 + 화면에 카드·링크
  • Apple CarPlay/Android Auto 통합
  • 스마트홈/웨어러블: 디스플레이 없음 → 순수 음성 UX

6.3 접근성

  • 자막(실시간)·텍스트 대안 기본 제공
  • 속도·크기 조절
  • 조용한 환경 대응(TTS 볼륨 자동 조절)

7장 · 데이터·학습의 UX

7.1 사용자 데이터 공개

  • "내 데이터가 어디에 쓰이는가"를 평문으로
  • 학습에 쓰일지, 얼마 동안 저장되는지, 삭제 방법
  • 프라이버시 정책은 짧은 요약 + 상세 링크

7.2 피드백 → 학습 루프

  • 사용자 수정이 언제 학습에 반영될지 기대치 설정
  • 개인 모델 vs 공유 모델 구분

7.3 On/Off 스위치

  • "이 대화는 학습에 쓰지 않기" 토글
  • 기업 설정: 조직 전체에 학습 opt-out

8장 · 온보딩·첫인상

8.1 첫 30초

  • "이걸로 뭘 할 수 있는지" 3–5 예시
  • 데이터 권한·인증 명확(OAuth 등)
  • "샘플 질문" 버튼: 하나만 눌러도 동작

8.2 Progressive disclosure

  • 기능을 한 번에 다 노출하지 말고, 사용하면서 알려줌
  • 새 기능 툴팁, 히스토리 기반 추천

8.3 에러 경험

  • 첫 실패가 치명적 — 가장 흔한 실패에 대한 복구 UX를 온보딩 단계에서 준비
  • 사용자 교육: "왜 이렇게 답했는지"를 인터랙티브하게

9장 · 접근성·포용성

9.1 다양한 능력

  • 시각: 스크린리더·고대비·폰트 크기
  • 청각: 자막·텍스트 대안·진동
  • 운동: 키보드 전용·음성 전용
  • 인지: 단순한 언어·짧은 응답·체크리스트

9.2 언어·문화

  • 다국어 지원 (UI + 응답)
  • 현지 관용구·숫자 포맷·날짜·통화
  • 문화적 민감성(명절·성별·인사)

9.3 경제적 접근

  • 무료/저가 티어
  • 오프라인 모드(로컬 LLM)
  • 저사양 기기 대응

10장 · 윤리·책임

10.1 투명성

  • AI가 작성했음을 명시
  • 사람과 AI의 경계 구분(특히 대화)

10.2 편향·공정성

  • 특정 집단에 불리한 결과 감지·보정
  • 테스트셋 다양성(성별·연령·지역·직업)

10.3 노동·경제

  • AI로 대체되는 직무 대한 사회적 책임
  • 데이터 라벨러·평가자의 노동 조건

10.4 환경

  • 큰 모델·긴 컨텍스트의 에너지 소비
  • 캐싱·라우팅·소형 모델로 절감

11장 · 한국어·한국 문화 특화

11.1 톤·존대

  • 기본 존댓말, 문맥에 따라 부드럽게 반말 혼용 허용
  • "~합니다" vs "~해요" 스타일 일관성

11.2 호칭

  • "고객님", "사용자님", "OO님" 등 브랜드별 규정
  • 실명·별명 설정 허용

11.3 문화적 맥락

  • 명절(설·추석), 공휴일, 계절 인사
  • 나이·학번·경력 질문의 민감성
  • 직업·출신 지역 언급의 주의

11.4 법적 문구

  • 약관·개인정보·마케팅 동의: 명확·구분
  • 금융·의료·법률 자문 거부 문구

11.5 한국어 모바일 UX

  • 한국어 자판·음성 입력 혼합
  • 짧은 답 + 긴 답 토글
  • 이모지·밈 활용의 균형

12장 · 실전 케이스 5

12.1 AI 코딩 제품 (Cursor 유형)

  • 인라인 제안 + 채팅 + Todo 리스트
  • 편집 수락/거절 한 키
  • Replay: 에이전트가 한 일 전체 diff

12.2 고객 지원 (Zendesk AI 등)

  • 고객 메시지 ↔ AI 답변 초안 ↔ 상담원 수정
  • 인용·지식베이스 링크 명시
  • "자동 발송" vs "수정 후 발송" 토글

12.3 글쓰기(예: Grammarly, Notion AI)

  • 문장 하이라이트 기반 수정 제안
  • 스타일·톤 슬라이더
  • "원문 보기" 되돌리기

12.4 검색·리서치(Perplexity 유형)

  • 인용·출처 강조
  • Follow-up 질문 자동 제안
  • 주제별 컬렉션·노트

12.5 에이전트(Manus, Devin 유형)

  • Task 보드 + Replay + 외부 통합
  • 위험 단계 승인
  • 결과물 다운로드·공유

13장 · 안티패턴 10선

13.1 프롬프트 박스만 덜렁

온보딩·샘플·추천 없음. 백지 공포.

13.2 진행 표시 없음

긴 에이전트 작업 중 사용자 이탈.

13.3 인용 없는 응답

신뢰 붕괴.

13.4 환각 응답에 자신감 가득

False confidence는 최악의 UX.

13.5 Feedback 수집만, 반영 흔적 없음

사용자가 곧 지쳐서 안 함.

13.6 에러를 조용히 삼킴

무엇이 실패했고, 다음 시도가 뭔지 불명.

13.7 자동 동작에 승인 게이트 없음

사고의 출처.

13.8 접근성 후순위

결국 일정·기능 밀려서 못 붙임.

13.9 AI 표시 누락

규제 위반 + 사용자 기만.

13.10 한국 문화 무시한 글로벌 톤

존댓말·호칭·문맥에서 어색.


14장 · 체크리스트 — AI 제품 디자인 런칭 전 12가지

  • 생성/확정 UI 경계 명시
  • 인용·불확실성·편집 가능 UX
  • 스트리밍 + 진행 상태 표시
  • 에이전트 작업에 Todo·승인 게이트·Replay
  • 피드백(👍/👎) + 사유 옵션 + 반영 경로
  • 실패·에러 복구 UX
  • 온보딩 30초 샘플·권한·기대치
  • 접근성(시각/청각/운동/인지)
  • 데이터 사용 투명성 + on/off 스위치
  • AI 식별 명시(법·윤리)
  • 한국어·문화 특화 (존대·호칭·법적 문구)
  • 편향·다양성 테스트

15장 · 다음 글 예고 — Season 4 Ep 13 (피날레): "생성형 AI 시대의 비즈니스 모델"

기술도, 운영도, 디자인도 정리했다. 마지막 질문은 "이걸로 어떻게 돈을 버는가?"

  • 가격 모델 (Subscription / Usage / Hybrid / Seat / Outcome)
  • 비용 구조와 마진 (API 의존 vs 자체 모델)
  • GTM (B2C / B2B / Enterprise / Prosumer)
  • 데이터 플라이휠과 해자(Moat) 만들기
  • "AI wrapper" 비판을 넘는 법
  • 규제·평판 리스크가 비즈니스에 미치는 영향
  • 투자 지형 (VC·기업형·공공)
  • M&A와 통합
  • 한국 스타트업의 글로벌 진출
  • Season 4 전체 회고
  • Season 5 예고 (예: "데이터 엔지니어링의 재발명")

"기술이 아무리 뛰어나도 비즈니스 모델이 없으면 일 년짜리 제품." Season 4의 마지막 글은 기술·운영·디자인을 "돈"이라는 축으로 꿰맨다.

다음 글에서 만나자.


요약: AI 제품 디자인은 신뢰를 제약 안에서 설계하는 일이다. 확정/생성 UI의 경계, 인용·불확실성·편집의 7-신뢰 패턴, 스트리밍·피드백·실패 UX, 에이전트의 진행·승인·리플레이, 음성의 turn-taking, 데이터 투명성, 온보딩 30초, 접근성, 윤리, 한국어·문화 특화. "좋은 AI 제품 = 제약 안에서 사용자와 대화하는 제품." 모델은 시작일 뿐이고, 제품의 품질은 UX가 마무리한다.

AI Product Design Complete Guide: Generative UI, Trust, Feedback, Streaming, Agent UX, Korean Culture Specialization (2025)

Season 4 Ep 12 — If everything through Ep 11 was about "engineering reaching stability," Ep 12 is about being loved by users. No matter how good the model is, the product fails if UX is weak.

Prologue — "Good AI product ≠ Good UX"

Many 2023-era AI products were just "ChatGPT wrappers": a text input, a response panel, and thumbs up/down. As of 2025, most products with only that format have either failed or survived only in narrow niches.

Why:

  • The ChatGPT mothership keeps getting stronger — simple wrappers have no differentiation
  • Users have started recognizing AI's weaknesses (hallucination, latency, sudden refusals) — trust design is required
  • You cannot demand "write good prompts" from non-technical users

So AI product design in 2025 is:

"UX design that builds trust within constraints."

This essay distills the concrete patterns.


Chapter 1 · Deterministic UI vs Generative UI

1.1 Deterministic UI

  • Buttons, forms, tabs, menus — results are predictable
  • Gentle learning curve, easy error correction
  • 80 years of HCI optimization behind it

1.2 Generative UI

  • AI generates buttons, cards, charts, and forms on the fly
  • Works together with Tailwind / design-system tokens
  • UI morphs by context — extremely powerful but hard to predict

1.3 Hybrid patterns

  • Deterministic skeleton, generative content (lists, summaries, citations)
  • Render generated output as deterministic components (JSON to Card, Markdown to safe HTML)
  • Actionable Chip: the model proposes, the user taps, and a deterministic action fires

1.4 Examples

  • Notion AI's slash commands: deterministic + generative
  • Perplexity: generated summary and citations inside a deterministic layout
  • Cursor: deterministic IDE frame + inline generative code suggestions

"The freer the generation, the more deterministic guardrails you need."


Chapter 2 · Designing for Trust

2.1 Why trust is central

  • AI output is probabilistic. Every time, users silently ask "is this really right?"
  • One big error poisons even correct answers afterward
  • Trust is not accuracy. Trust is users being able to predict the AI's limits.

2.2 Seven patterns

  1. Citation: show source documents, pages, and sections
  2. Uncertainty display: language like "85% confident" or "insufficient info"
  3. Editable: edit, delete, or regenerate a response in place
  4. Visual distinction of origin: AI-generated areas marked with icon or background
  5. Show work: expandable reasoning steps and search results
  6. Freshness labeling: "Latest data: 2025-04-10"
  7. Polite refusals: "I cannot help with that" + suggested alternative

2.3 What breaks trust

  • Confident answers with no sources
  • Hallucinations wrapped in "plausible" prose
  • Silent failure (no error message)
  • Excessive generative UI that reshapes the interface every time

Chapter 3 · Feedback UX

3.1 Collection

  • Thumbs up/down: instant feedback
  • Multiple-choice reasons (checkboxes): "inaccurate", "incomplete", "unsafe", "style mismatch"
  • Free text: rare but deeply insightful
  • The edited response itself is feedback (regenerate, edit)

3.2 Utilization

  • Downvote cases to regression-eval candidates
  • Upvote cases to preference training data (Ep 4 DPO)
  • Edit diffs to style/format learning

3.3 Placement

  • Inline buttons get 5 to 10x higher engagement than "go to dashboard" approaches
  • Immediately confirm "Thanks" after feedback
  • Be transparent about how personal data is used

Chapter 4 · Streaming, Latency, and Progress UX

4.1 Streaming vs batch

  • Streaming: feels fast, long responses stay engaging
  • Batch: complex formats (tables, JSON) or when the output must be validated as a whole

4.2 Handling latency

  • Skeleton UI: layout first
  • Typing indicator: "thinking..." or three dots
  • Progressive content: title, then summary, then body
  • Budget display: "about 5 seconds remaining"
  • Cancel and wait: user can abort

4.3 Progress state

  • Agent tasks: stages like "searching", "analyzing", "drafting summary"
  • Todo checklist: Claude Code style. Check off each completed step
  • Replay: review the process after completion

4.4 Preventing boredom

  • For long waits, use micro-interactions (animations, playful messages)
  • But excessive humor undermines professionalism

Chapter 5 · Agent UX

5.1 The three challenges

  1. Progress visibility: what is it doing right now
  2. Approval and abort: stop before risky actions
  3. Recovery and replay: salvage even on failure

5.2 Progress visibility

  • Timeline: tool calls and results on a time axis
  • Todo: "1. Open file done 2. Editing... 3. Run tests pending"
  • Cost/Time meter: projected cost and time

5.3 Approval gates

  • Sensitive actions (payments, deletion, external sending) trigger a human-confirm popup
  • Shortcut: "auto-approve next time" option (explicit)
  • Prevent abuse of bulk approvals

5.4 Failure UX

  • Clear error reason + retry button
  • If the agent gives up on its own, present "reason and next alternative"
  • User can jump in via "need a hand?"

5.5 Replay and sharing

  • Share agent runs via link (internally)
  • Simulation and debugging
  • Onboarding material for new teammates

Chapter 6 · Voice UX (Extending Ep 9)

6.1 Design principles

  • Short, clear responses (summary of the Ep 9 12 principles)
  • Respect turn-taking (handle interruptions naturally)
  • Speak uncertainty ("what I understood is...")
  • Escalation trigger (after several failures, hand to a human)

6.2 Multimodal integration

  • Voice + screen: speak guidance, show cards and links on screen
  • Apple CarPlay / Android Auto integration
  • Smart home / wearables: no display means pure voice UX

6.3 Accessibility

  • Live captions and text alternatives by default
  • Speed and size controls
  • Adapt to quiet environments (auto-adjust TTS volume)

Chapter 7 · Data and Learning UX

7.1 Disclosing user data usage

  • State "where my data goes" in plain language
  • Whether it will be used for training, how long it is stored, how to delete it
  • Short privacy summary + detailed link

7.2 Feedback to learning loop

  • Set expectations about when user edits will be reflected in training
  • Distinguish personal model vs shared model

7.3 On/Off switches

  • "Do not use this conversation for training" toggle
  • Enterprise setting: organization-wide training opt-out

Chapter 8 · Onboarding and First Impression

8.1 The first 30 seconds

  • 3 to 5 examples of "what you can do with this"
  • Clear data permissions and auth (OAuth, etc.)
  • "Sample question" buttons: one tap should work

8.2 Progressive disclosure

  • Do not expose every feature at once; teach along the way
  • New-feature tooltips, history-based recommendations

8.3 Error experience

  • The first failure is fatal — prepare recovery UX for the most common failures during onboarding
  • User education: explain "why it answered this way" interactively

Chapter 9 · Accessibility and Inclusion

9.1 Diverse abilities

  • Vision: screen readers, high contrast, font size
  • Hearing: captions, text alternatives, vibration
  • Motor: keyboard-only, voice-only
  • Cognitive: simple language, short responses, checklists

9.2 Language and culture

  • Multilingual support (UI + responses)
  • Local idioms, number formats, dates, currency
  • Cultural sensitivity (holidays, gender, greetings)

9.3 Economic access

  • Free / low-cost tiers
  • Offline mode (local LLM)
  • Low-spec device support

Chapter 10 · Ethics and Responsibility

10.1 Transparency

  • State clearly that AI authored the content
  • Mark the boundary between human and AI (especially in conversation)

10.2 Bias and fairness

  • Detect and correct outcomes unfavorable to specific groups
  • Test-set diversity (gender, age, region, occupation)

10.3 Labor and economy

  • Social responsibility toward jobs displaced by AI
  • Labor conditions for data labelers and evaluators

10.4 Environment

  • Energy consumption of large models and long contexts
  • Reduce via caching, routing, and smaller models

Chapter 11 · Korean Language and Culture Specialization

11.1 Tone and honorifics

  • Default to honorific form; allow soft mixing with informal depending on context
  • Consistency between the more formal style and the slightly softer polite style

11.2 Forms of address

  • "Customer", "User", "Mr./Ms. OO" — each brand has its own rules
  • Allow real-name and nickname settings

11.3 Cultural context

  • Holidays (Lunar New Year, Chuseok), public holidays, seasonal greetings
  • Sensitivity around age, school-year, and career questions
  • Caution when referencing occupation or hometown
  • Terms, privacy, marketing consent: clear and separated
  • Refusal phrasing for financial, medical, and legal advice

11.5 Korean mobile UX

  • Mixing Korean keyboard and voice input
  • Short-answer vs long-answer toggle
  • Balanced use of emoji and memes

Chapter 12 · Five Real-World Cases

12.1 AI coding products (Cursor-type)

  • Inline suggestions + chat + Todo list
  • One-key accept/reject of edits
  • Replay: full diff of what the agent did

12.2 Customer support (e.g. Zendesk AI)

  • Customer message and AI draft and agent edits
  • Show citations and knowledge-base links
  • "Auto-send" vs "edit-then-send" toggle

12.3 Writing (e.g. Grammarly, Notion AI)

  • Highlight-based edit suggestions
  • Style/tone sliders
  • "View original" / revert

12.4 Search and research (Perplexity-type)

  • Emphasize citations and sources
  • Auto-suggest follow-up questions
  • Collections and notes by topic

12.5 Agents (Manus, Devin-type)

  • Task board + Replay + external integrations
  • Approval on risky steps
  • Download/share deliverables

Chapter 13 · Ten Anti-Patterns

13.1 A lone prompt box

No onboarding, no samples, no suggestions. Blank-page terror.

13.2 No progress indicator

Users bail out of long agent runs.

13.3 Responses with no citations

Trust collapses.

13.4 Full confidence on hallucinated answers

False confidence is the worst UX.

13.5 Feedback collected, no sign of being used

Users give up quickly.

13.6 Swallowing errors silently

Unclear what failed and what to try next.

13.7 Automatic actions with no approval gate

A source of accidents.

13.8 Accessibility deprioritized

Always postponed, never shipped.

13.9 Missing AI disclosure

Regulatory violation + deceiving users.

13.10 Global tone ignoring Korean culture

Awkward in honorifics, address, and context.


Chapter 14 · Checklist — Twelve Items Before Launching an AI Product

  • Generative/deterministic UI boundary stated
  • Citation, uncertainty, editable UX
  • Streaming + progress indicators
  • Todo, approval gates, Replay for agent tasks
  • Feedback (up/down) + reason options + reflection path
  • Failure/error recovery UX
  • 30-second onboarding with samples, permissions, expectations
  • Accessibility (vision/hearing/motor/cognitive)
  • Data-usage transparency + on/off switches
  • AI disclosure (legal, ethical)
  • Korean-language and cultural fit (honorifics, address, legal phrasing)
  • Bias and diversity testing

Chapter 15 · Next — Season 4 Ep 13 (Finale): "Business Models in the Generative AI Era"

Technology, operations, and design are all covered. The final question is "how do you make money with this?"

  • Pricing models (Subscription / Usage / Hybrid / Seat / Outcome)
  • Cost structure and margins (API dependent vs in-house model)
  • GTM (B2C / B2B / Enterprise / Prosumer)
  • Building a data flywheel and moat
  • Getting past the "AI wrapper" critique
  • Regulatory and reputational risk as business impact
  • Investment landscape (VC, corporate, public)
  • M&A and integration
  • Korean startups going global
  • Season 4 retrospective
  • Season 5 preview (e.g. "Reinventing Data Engineering")

"No matter how strong the tech, without a business model it is a one-year product." The final Season 4 essay stitches tech, ops, and design together on the axis of money.

See you in the next one.


Summary: AI product design is engineering trust within constraints. The boundary between deterministic and generative UI, the 7-trust patterns of citation/uncertainty/edit, streaming/feedback/failure UX, the agent's progress/approval/replay, voice turn-taking, data transparency, 30-second onboarding, accessibility, ethics, and Korean-language/cultural fit. "A good AI product is a product that converses with users within constraints." The model is only the start; UX finishes the quality of the product.