Split View: AI 시대 생존 가이드 8편: 디자이너를 위한 AI 생존 전략 - Midjourney, Figma AI 시대
AI 시대 생존 가이드 8편: 디자이너를 위한 AI 생존 전략 - Midjourney, Figma AI 시대
AI 시대 생존 가이드 8편: 디자이너를 위한 AI 생존 전략 - Midjourney, Figma AI 시대
2022년 가을, Midjourney와 Stable Diffusion이 공개되었을 때, 디자인 커뮤니티는 충격에 빠졌습니다. 텍스트 몇 줄로 수준 높은 이미지가 나오는 것을 보고 많은 디자이너들이 "이러면 우리는 어떻게 되는 건가?"라고 물었습니다.
그로부터 3년이 넘게 흘렀습니다. AI 이미지 생성 도구들은 더욱 강력해졌고, Figma에도 AI가 들어왔으며, Adobe 전 제품군에 AI 기능이 통합되었습니다. 그리고 실제로 일부 디자인 업무들은 자동화되고 있습니다.
그런데 흥미로운 일이 벌어졌습니다. 디자이너의 수요가 없어진 게 아니라, 디자이너가 해야 하는 일이 달라졌습니다. 그리고 그 달라진 일은 AI 이전보다 훨씬 더 흥미롭고, 더 가치 있는 일이기도 합니다.
이 글은 불안한 디자이너 여러분을 위한 정직한 안내서입니다.
1. AI 이미지 생성 도구들의 현주소
AI 이미지 생성 도구의 빠른 진화를 먼저 파악해야 합니다. 각 도구의 특성을 이해하면 도구를 두려워하는 것이 아니라 전략적으로 활용할 수 있습니다.
Midjourney: 아이디어 발산의 왕
Midjourney는 여전히 아름다운 이미지 생성에서 독보적입니다. 특히 아트 디렉션, 무드보드 제작, 컨셉 발산에서 강점을 보입니다.
# Midjourney 프롬프트 예시 (개념 이해용)
# 브랜드 아이덴티티 무드보드 생성:
# "minimalist Korean tech startup branding,
# clean typography, soft gradient, trust and innovation,
# --ar 16:9 --style raw --v 6.1"
Midjourney의 핵심 특성:
- 예술적 미감이 뛰어남
- 일관된 스타일 유지가 어렵던 문제를 v6부터 캐릭터 레퍼런스 기능으로 개선
- 정밀한 텍스트 배치나 정확한 UI 재현에는 한계
DALL-E 3: 텍스트 반영도 최강
OpenAI의 DALL-E 3는 프롬프트를 가장 정확하게 따릅니다. 복잡한 설명을 입력했을 때 의도를 가장 잘 반영합니다. ChatGPT에 통합되어 대화하며 이미지를 수정할 수 있다는 것도 큰 장점입니다.
특히 "이미지 안에 정확한 텍스트 넣기"는 DALL-E 3가 가장 잘 합니다. 이전 세대 AI들은 텍스트가 뒤죽박죽됐는데, 이제는 상당히 정확해졌습니다.
Stable Diffusion: 컨트롤의 끝판왕
Stable Diffusion은 오픈소스라는 점에서 독보적입니다. ControlNet 같은 확장 기능을 쓰면 포즈, 구도, 깊이 등을 세밀하게 컨트롤할 수 있습니다.
# ControlNet을 활용한 정밀 제어 개념:
# - Pose Control: 사람의 포즈를 원하는 대로 지정
# - Depth Control: 공간감과 원근감 유지
# - Edge Detection: 스케치에서 고품질 렌더링
# - 이를 통해 "내가 원하는 구도"를 정확히 재현 가능
Stable Diffusion의 한계는 학습 곡선입니다. 잘 쓰려면 모델, 로라, 샘플러 등에 대한 이해가 필요합니다. 하지만 그만큼 자유도가 높습니다.
Adobe Firefly: 상업적 안전성의 보증
Adobe Firefly의 차별점은 단 하나, 완전한 상업적 라이센스입니다. 학습 데이터를 Adobe Stock 이미지와 퍼블릭 도메인 컨텐츠로만 구성해, 저작권 분쟁 없이 상업적으로 사용할 수 있습니다.
기업 클라이언트 작업, 광고, 제품 패키지 디자인에서 법적 안전성이 중요하다면 Firefly가 최선입니다.
각 도구의 실용적 활용법
| 상황 | 추천 도구 |
|---|---|
| 초기 컨셉 발산 | Midjourney |
| 클라이언트 프레젠테이션 | Midjourney + DALL-E 3 |
| 정밀 구도 제어 | Stable Diffusion + ControlNet |
| 상업 광고 소재 | Adobe Firefly |
| 대화하며 수정 | ChatGPT + DALL-E 3 |
2. Figma AI와 Adobe AI의 자동화 현황
Figma AI의 주요 기능들
2025년 이후 Figma에 통합된 AI 기능들이 디자인 워크플로우를 변화시키고 있습니다.
Auto Layout + AI 제안
기존 Auto Layout이 강력했다면, AI가 레이아웃 규칙을 자동으로 제안해주는 기능이 추가되었습니다. "이 컴포넌트들이 어떻게 정렬되면 좋겠는지" AI가 읽고 제안합니다.
Make Designs (텍스트에서 UI 생성)
"다크모드 대시보드, 사이드바 있음, 데이터 테이블 메인에"라고 입력하면 러프한 와이어프레임을 생성합니다. 완성도 높은 결과물은 아니지만 스케치 시작점으로 유용합니다.
Rename Layers
수십 개의 레이어를 의미 있는 이름으로 자동 정리해주는 기능. 귀찮지만 중요한 작업을 AI가 해결합니다.
번역 자동화
다국어 서비스 디자인 시 텍스트 레이어를 자동으로 번역합니다. 직접 번역 작업을 하던 시간이 크게 줄어들었습니다.
Adobe AI (Generative Fill, Express AI 등)
Adobe Photoshop의 Generative Fill은 이미 많은 디자이너들이 일상적으로 씁니다.
- 이미지 배경 확장 (Generative Expand)
- 객체 제거 및 배경 자동 채우기
- 부분 수정 (Inpainting)
- 텍스처 생성
Adobe Illustrator의 AI 기능들도 계속 확장되고 있습니다. 벡터 이미지 생성, 패턴 자동화, 폰트 매칭 등이 포함됩니다.
자동화로 줄어드는 시간 vs 여전히 필요한 시간
솔직하게 말씀드리겠습니다. 다음 작업들은 AI로 훨씬 빨라졌습니다.
- 기본 자산 생성 (아이콘 세트, 배경 이미지, 목업 이미지)
- 디자인 시스템 기반 화면 수십 장 생성
- 오래된 이미지 보정 및 스타일 통일
- 다국어 레이아웃 테스트
반면 여전히 시간이 걸리는 작업들:
- 브랜드 아이덴티티의 고유성 정의
- 복잡한 사용자 플로우 설계
- 접근성과 포용성을 고려한 설계
- 미세한 인터랙션 디테일 정의
3. AI가 대체 못 하는 디자인 역량
이제 핵심으로 들어갑니다. AI가 아무리 좋아도 대체할 수 없는 디자인 역량들이 있습니다. 그리고 이 역량들의 가치는 오히려 높아지고 있습니다.
사용자 조사와 진짜 공감
AI는 기존 데이터를 분석할 수 있습니다. 하지만 아직 존재하지 않는 니즈를 발견하는 것은 다른 이야기입니다.
사용자 인터뷰 현장에서 "아, 실제로 이렇게 쓰는구나"를 깨닫는 순간, 사용자가 말하지 않은 것에서 진짜 문제를 파악하는 능력, 관찰을 통해 잠재적 니즈를 발견하는 것은 여전히 인간 디자이너의 핵심 역량입니다.
더 중요한 것은, AI는 "공감"할 수 없습니다. 디자이너가 사용자의 고통에 진심으로 공감할 때, 그 감정이 디자인 결정에 녹아들 때, 사용자들은 그것을 느낍니다. "이 제품은 나를 이해한다"는 감각은 데이터 분석이 아닌 공감에서 나옵니다.
브랜드 전략과 방향성
"우리 브랜드는 어떤 색을 써야 하는가"는 표면적 질문입니다. 진짜 질문은 "우리 브랜드는 어떤 감정을 불러일으켜야 하는가? 어떤 가치를 전달해야 하는가? 10년 후에도 이 방향성이 유효한가?"입니다.
AI는 "이런 산업에서는 보통 이런 색을 씁니다"라고 말할 수 있습니다. 하지만 "우리가 경쟁사와 차별화하기 위해 통념을 깨야 한다"는 전략적 용기는 AI가 내릴 수 없습니다.
네이버의 초록, 카카오의 노랑, 토스의 블루 - 이 컬러들이 브랜드 자산이 된 것은 데이터가 그렇게 추천해서가 아닙니다. 브랜드가 추구하는 가치와 사용자와의 감정적 연결에 대한 깊은 이해에서 나온 결정입니다.
복잡한 UX 아키텍처
단순한 화면 하나를 만드는 것이 아니라, 수십 개의 화면이 유기적으로 연결된 사용자 여정을 설계하는 것은 AI가 잘 못합니다.
# 복잡한 UX 아키텍처 예시: 금융 앱의 대출 신청 플로우
#
# 사용자 상태별 분기:
# - 신규 사용자 vs 기존 사용자
# - 신용점수 구간별 다른 플로우
# - 서류 제출 상태에 따른 진행 상황
# - 은행 시스템 응답 지연 시 처리
# - 중간에 이탈 후 재진입 시 복구
# - 접근성 요구사항 (시각장애인, 고령 사용자)
# - 모바일 vs 데스크톱 차별화
#
# 이 모든 경우의 수를 일관성 있게 설계하는 것은
# 시스템적 사고와 도메인 이해가 동시에 필요합니다.
각 상태 간의 전환, 예외 처리, 에러 상태, 빈 상태, 로딩 상태 - 이 모든 것을 일관성 있게 설계하는 능력은 여전히 숙련된 UX 디자이너의 영역입니다.
스토리텔링과 설득
좋은 디자인은 스토리를 담고 있습니다. 홈페이지 랜딩 페이지 하나가 사용자를 어떻게 고객으로 만드는지, 그 여정에서 어떤 감정을 유발하고, 어떤 의심을 해소하고, 어떤 순간에 행동을 유도하는지.
이 스토리텔링 능력은 카피라이팅, 비주얼 디자인, 인터랙션 디자인, 심리학을 종합한 역량입니다. AI는 이 중 각각의 요소를 어느 정도 지원할 수 있지만, 통합된 스토리를 만드는 것은 여전히 인간 디자이너의 일입니다.
4. AI를 강력한 디자인 도구로 활용하기
Midjourney로 아이디어 발산 가속화
브랜드 컨셉 초기 단계, 클라이언트와의 방향성 합의 단계에서 Midjourney는 강력합니다.
실용적인 무드보드 워크플로우:
# 단계 1: 키워드 추출
# 클라이언트 브리프에서 핵심 감성 키워드 추출
# 예: "신뢰, 혁신, 친근함, 한국적 정서, 미래지향"
# 단계 2: 프롬프트 조합 실험
# "trustworthy Korean fintech brand identity,
# warm yet professional, young professionals target,
# soft blue and warm beige palette,
# --style raw --ar 16:9"
# 단계 3: 여러 방향 한 번에 탐색
# 5-10개의 다른 무드 방향을 30분 안에 시각화
# 단계 4: 클라이언트 방향성 논의
# 구체적인 시각 자료를 통한 훨씬 효율적인 논의
과거에는 무드보드 하나 만드는 데 반나절이 걸렸습니다. 지금은 30분 안에 5가지 방향을 클라이언트에게 보여줄 수 있습니다.
AI로 목업 생성 가속화
제품 사진, 앱 스크린샷, 마케팅 소재 제작 시 AI는 엄청난 시간을 절약해줍니다.
Photoshop Generative Fill 실용 활용:
- 제품 사진 배경 교체 (세트 촬영 비용 절감)
- 다양한 계절/시간대의 배경으로 자동 변경
- 모델 없이 의류 착용 시뮬레이션
- 손상된 브랜드 자료 복원
앱 스크린 목업 제작:
디자인 파일의 스크린샷을 실제 디바이스 목업에 적용하는 과정도 AI로 빨라졌습니다. 수십 개의 화면을 다양한 디바이스 프레임에 자동으로 적용하는 플러그인들이 나와 있습니다.
코드를 이해하는 디자이너: Figma Dev Mode
AI 시대에 디자이너에게 새롭게 중요해진 역량이 있습니다. 바로 개발자와의 협업 능력입니다.
Figma Dev Mode는 디자인을 코드로 자동 변환해주는 기능을 제공합니다.
/* Figma Dev Mode가 자동 생성하는 CSS 예시 */
.button-primary {
display: flex;
flex-direction: row;
justify-content: center;
align-items: center;
padding: 12px 24px;
gap: 8px;
background: #3b82f6;
border-radius: 8px;
font-family: 'Pretendard', sans-serif;
font-weight: 600;
font-size: 16px;
color: #ffffff;
}
디자이너가 이 코드를 완벽히 이해할 필요는 없습니다. 하지만:
border-radius가 무엇인지flex가 무엇인지- 픽셀과 rem의 차이가 무엇인지
이 정도는 이해하면 개발자와의 협업이 훨씬 원활해집니다. "이게 왜 다르게 나왔지?"라는 대화에서 훨씬 생산적인 소통이 가능합니다.
AI로 반복 작업 자동화
디자이너 업무에는 생각보다 많은 반복 작업이 있습니다. AI와 플러그인을 활용하면 이 시간을 크게 줄일 수 있습니다.
Figma 플러그인 활용:
- Content Reel: 실제 같은 더미 데이터 자동 채우기
- Rename It: 레이어 일괄 이름 변경
- Autoflow: 플로우 화살표 자동 생성
- Stark: 접근성 자동 검사 (색상 대비, 시각장애인 시뮬레이션)
5. AI 제품 디자인의 특수성: AI UX
AI 기능을 포함한 제품의 UX 설계는 일반 UX와 다른 특수한 고려사항이 필요합니다. 이것이 2026년 디자이너에게 가장 빠르게 성장하는 전문 영역입니다.
AI UX의 핵심 원칙들
1. 불확실성의 표현
AI는 항상 확실한 답을 주지 않습니다. "이 사진에 고양이가 있을 확률 93%"처럼 불확실성이 있습니다. 이를 어떻게 시각적으로 표현할 것인가?
# AI 불확실성 표현 패턴들:
# - 신뢰도 바: 시각적 진행 바로 확신도 표현
# - 텍스트 레이블: "AI 생성됨", "AI 추천", "높은 확신도"
# - 점진적 공개: 핵심 결과 → 상세 설명 → 원본 데이터
# - 피드백 요청: "이 결과가 도움이 됐나요? 👍 👎"
2. AI 실패의 우아한 처리
AI가 틀리거나 답을 못 하는 상황의 UX 설계.
- 빈 상태(Empty State): AI가 학습 데이터 부족으로 추천 못 할 때
- 오류 상태(Error State): AI API 응답 실패 시
- 낮은 신뢰도 상태: AI가 추측만 할 수 있을 때
- 폴백 상태(Fallback): AI 대신 수동 기능으로 전환
3. 스트리밍 응답의 UX
ChatGPT처럼 텍스트가 실시간으로 생성되는 인터페이스. 이 "타이핑 효과"는 단순한 시각 효과가 아닙니다. 사용자의 인지 부하를 줄이고, 기다리는 시간을 더 자연스럽게 느끼게 합니다. 이런 미세한 인터랙션 디자인이 사용자 경험을 크게 바꿉니다.
4. 투명성과 설명 가능성
"왜 이 추천을 했는지" 사용자에게 보여줄 것인가? 보여준다면 어떻게 표현할 것인가?
넷플릭스의 "당신이 [영화]을 봤기 때문에" 라벨은 AI UX 투명성의 좋은 예시입니다. 단순하지만 사용자가 AI의 로직을 이해하고 신뢰하게 만듭니다.
AI 시대 디자이너가 알아야 할 기본 AI 개념
완전히 이해할 필요는 없지만, 다음 개념들은 알아야 합니다.
- 할루시네이션: LLM이 없는 사실을 만들어내는 현상. 이를 방지하는 UX 설계 (정보 출처 표시 등)가 필요합니다.
- 컨텍스트 윈도우: LLM이 한 번에 처리할 수 있는 텍스트 양의 한계. 긴 대화에서 AI가 앞 내용을 "잊는" 현상을 UX로 어떻게 처리할지.
- 온도(Temperature): AI 응답의 창의성/무작위성 수준. 창의적인 AI와 정확한 AI의 UX는 다릅니다.
- 프롬프트 인젝션: 악의적 사용자가 AI 시스템을 조작하려는 시도. 보안 UX 설계가 필요합니다.
6. 디자이너의 AI 시대 포지셔닝 전략
포지셔닝 옵션 1: AI UX 전문가
AI 제품의 UX를 전문적으로 설계하는 디자이너. 현재 가장 수요가 높은 방향 중 하나입니다.
필요한 역량:
- AI 시스템의 특성 이해 (할루시네이션, 불확실성 등)
- AI 제품의 평가 지표 이해 (사용자 만족도, AI 신뢰도 등)
- 프롬프트 인터페이스 설계
- AI 에이전트 인터페이스 설계
포지셔닝 옵션 2: 브랜드 아이덴티티 전문가
역설적이게도, AI가 이미지를 대량 생성할수록 진짜 독특한 브랜드 아이덴티티의 가치가 높아집니다. AI로 만든 것처럼 보이는 비주얼이 넘쳐날 때, 진짜 인간적이고 독특한 브랜드가 차별화됩니다.
이 방향의 디자이너는:
- AI 도구를 아이디어 발산에 활용하되
- 최종 아이덴티티는 깊은 브랜드 전략에서 출발
- 독특한 개인 스타일 개발
포지셔닝 옵션 3: 풀스택 디자이너
코드를 이해하고, AI 도구를 쓰고, 제품 전략까지 논의할 수 있는 디자이너. 소규모 팀과 스타트업에서 수요가 매우 높습니다.
# 풀스택 디자이너의 기술 스택 예시:
# - Figma (UI/UX 설계)
# - Framer 또는 Webflow (디자인 to 웹사이트)
# - HTML/CSS 기초 (개발자 협업)
# - Midjourney/Firefly (에셋 생성)
# - ChatGPT/Claude (카피라이팅 지원)
# - Notion (문서화 및 UX 라이팅)
이런 디자이너는 1인 창업자나 소규모 스타트업에서 "디자인 + 일부 프론트엔드 + AI 도구 활용"을 혼자 담당할 수 있습니다.
포지셔닝 옵션 4: AI 도구 에반젤리스트
회사 내에서 디자인팀의 AI 도구 도입을 이끄는 역할. 아직 많은 디자인팀들이 AI 도구를 체계적으로 도입하지 못하고 있습니다.
- 팀의 AI 워크플로우 설계
- AI 도구 실험과 평가
- 내부 교육 및 가이드라인 제작
- AI 사용 베스트 프랙티스 문서화
7. 포트폴리오: AI 활용 + 인간 중심 설계 보여주기
AI 시대 디자인 포트폴리오의 핵심 원칙
단순히 "예쁜 화면"을 보여주는 포트폴리오는 이제 충분하지 않습니다. AI가 예쁜 이미지를 대량 생성할 수 있기 때문입니다.
강력한 포트폴리오는 "왜 이렇게 설계했는가"의 사고 과정을 보여줍니다.
포트폴리오 케이스 스터디 구성
각 프로젝트를 다음 구조로 정리하세요.
# 케이스 스터디 구성:
#
# 1. 문제 정의 (Problem)
# - 어떤 사용자의 어떤 고통을 해결했는가
# - 비즈니스 목표는 무엇이었는가
#
# 2. 리서치와 발견 (Research & Insights)
# - 어떤 방법으로 사용자를 이해했는가
# - 핵심 인사이트는 무엇이었는가
#
# 3. 설계 과정 (Design Process)
# - 어떤 아이디어들을 탐색했는가 (AI 도구 활용 과정 포함)
# - 어떤 결정을 왜 했는가
# - 어떤 대안을 탐색했고 왜 선택하지 않았는가
#
# 4. 최종 솔루션 (Solution)
# - 완성된 디자인
# - AI 도구를 어떻게 활용했는가
#
# 5. 임팩트 (Impact)
# - 출시 후 어떤 결과가 있었는가
# - 사용자 반응은 어떠했는가
AI 활용을 솔직하게 보여주기
AI 도구를 사용했다는 것을 숨기지 마세요. 오히려 강점입니다.
좋은 포트폴리오 스토리 예시:
"초기 컨셉 단계에서 Midjourney로 15개의 무드 방향을 탐색했습니다. 이를 통해 클라이언트와 3시간의 회의 없이 30분 만에 방향성을 합의할 수 있었습니다. 이후 선택된 방향을 바탕으로 실제 브랜드 에셋을 직접 설계했으며, AI 생성 이미지는 영감의 원천으로만 사용하고 모든 최종 에셋은 직접 제작했습니다."
이런 스토리는 "AI를 전략적으로, 책임감 있게 활용할 줄 안다"는 것을 보여줍니다.
AI UX 프로젝트 포함하기
가능하다면 AI 기능을 포함한 제품의 UX 설계 케이스를 포트폴리오에 포함하세요.
- AI 챗봇 인터페이스 설계
- AI 추천 시스템의 UX
- AI 생성 콘텐츠의 신뢰도 표시 디자인
- AI 에이전트 대시보드
이런 케이스가 없다면, 기존 AI 제품들을 분석해 "내가 재설계한다면"이라는 가상 프로젝트도 좋은 포트폴리오 소재입니다.
AI 시대 디자이너의 12개월 성장 로드맵
1-3개월: AI 도구 마스터리
실습 목표:
- Midjourney 집중 실습: 매일 30분, 다양한 스타일 프롬프트 실험
- Figma AI 기능 전부 사용해보기
- Adobe Firefly로 하나의 완성된 마케팅 소재 제작
학습 목표:
- AI 이미지 생성의 저작권 이슈 이해
- AI UX 패턴 20개 수집 및 분석 (ChatGPT, Perplexity, Notion AI 등)
4-6개월: AI UX 이해 심화
실습 목표:
- AI 기능이 포함된 가상 앱 UX 설계 1개 완성
- AI 불확실성 표현 방법 5가지 시안 제작
학습 목표:
- "Design for AI" 관련 아티클 20개 읽기 (Nielsen Norman Group의 AI UX 가이드라인)
- LLM의 기본 개념 이해 (2-3시간 투자)
7-9개월: 전문화와 포트폴리오 정리
- 선택한 포지셔닝 방향으로 대표 프로젝트 1개 완성
- 케이스 스터디 3개를 포트폴리오 사이트에 게시
- 디자인 커뮤니티 발표 (파그치원, UXKL, UX Seoul 등)
10-12개월: 커리어 전환 또는 포지션 업그레이드
- 타겟 역할 명확히 정의
- 네트워킹 강화
- 이직 또는 사내 포지셔닝 전략 실행
마치며: AI 시대 디자이너의 본질
AI가 이미지를 대량 생성하는 시대에 역설적으로 "왜 이 디자인이어야 하는가"라는 질문의 중요성은 커졌습니다.
AI는 수백만 개의 디자인 패턴을 학습했습니다. 하지만 "이 브랜드의 사용자가 느끼는 감정", "이 맥락에서 이 인터랙션이 왜 자연스러운가", "이 색이 이 문화에서 어떤 의미를 가지는가" - 이런 질문에 답하는 것은 여전히 인간 디자이너의 몫입니다.
디자이너는 예쁜 것을 만드는 사람이 아닙니다. 인간의 문제를 시각적 경험으로 해결하는 사람입니다. AI가 시각적 실행의 많은 부분을 담당할수록, 그 결과물에 방향을 주고 의미를 부여하는 디자이너의 역할은 더욱 중요해집니다.
AI 도구들을 무서워하지 마세요. 그것들은 여러분의 손과 눈을 확장해주는 도구입니다. 중요한 것은 그 도구로 무엇을 만들 것인지를 결정하는 여러분의 판단, 공감, 그리고 창의성입니다.
AI 시대 생존 가이드 시리즈는 계속 이어집니다. 다음 편에서는 AI 시대의 취업과 이직 전략을 종합적으로 다룹니다.
AI Era Survival Guide Part 8: Survival Strategies for Designers in the Age of Midjourney and Figma AI
AI Era Survival Guide Part 8: Survival Strategies for Designers in the Age of Midjourney and Figma AI
When Midjourney and Stable Diffusion launched in the fall of 2022, the design community was shaken. Watching high-quality images emerge from a few lines of text, many designers asked, "What does this mean for us?"
More than three years have passed since then. AI image generation tools have grown even more powerful, AI has arrived inside Figma, and AI features have been integrated across the entire Adobe product suite. And in practice, some design tasks are being automated.
But something interesting happened. Demand for designers didn't disappear — what designers are asked to do has changed. And the new work is, in many ways, more interesting and more valuable than what came before.
This article is an honest guide for designers who are feeling uncertain.
1. The Current State of AI Image Generation Tools
You need to first understand the rapid evolution of AI image generation tools. Understanding each tool's characteristics lets you use them strategically rather than fear them.
Midjourney: The King of Ideation
Midjourney remains unrivaled for producing beautiful images. It shines especially in art direction, mood board creation, and concept exploration.
# Example Midjourney prompt (for conceptual understanding)
# Generating a brand identity mood board:
# "minimalist Korean tech startup branding,
# clean typography, soft gradient, trust and innovation,
# --ar 16:9 --style raw --v 6.1"
Key characteristics of Midjourney:
- Exceptional artistic sensibility
- The difficulty of maintaining a consistent style was improved starting from v6 with the character reference feature
- Limited for precise text placement or accurate UI reproduction
DALL-E 3: The Best at Following Prompts
OpenAI's DALL-E 3 follows prompts most accurately. When given complex descriptions, it best reflects the intent. Being integrated into ChatGPT so you can converse and modify images is also a major advantage.
In particular, "placing accurate text within an image" is where DALL-E 3 excels. Previous-generation AIs scrambled text, but now it's considerably more accurate.
Stable Diffusion: The Ultimate in Control
Stable Diffusion stands apart for being open source. Extensions like ControlNet allow fine-grained control over pose, composition, depth, and more.
# Concept of precision control with ControlNet:
# - Pose Control: specify a person's pose as desired
# - Depth Control: maintain spatial depth and perspective
# - Edge Detection: render high-quality output from a sketch
# - This enables accurate reproduction of "the composition you want"
The limitation of Stable Diffusion is its learning curve. Using it well requires understanding models, LoRAs, samplers, and more. But that also means a high degree of freedom.
Adobe Firefly: Guaranteed Commercial Safety
Adobe Firefly's differentiator is one thing: fully cleared commercial licensing. Its training data consists solely of Adobe Stock images and public domain content, making it safe for commercial use without copyright disputes.
If legal safety matters for corporate client work, advertising, or product package design, Firefly is the best option.
Practical Use Cases for Each Tool
| Situation | Recommended Tool |
|---|---|
| Initial concept ideation | Midjourney |
| Client presentations | Midjourney + DALL-E 3 |
| Precise compositional control | Stable Diffusion + ControlNet |
| Commercial advertising assets | Adobe Firefly |
| Conversational iteration | ChatGPT + DALL-E 3 |
2. What Figma AI and Adobe AI Are Automating
Key Features of Figma AI
AI features integrated into Figma since 2025 are transforming design workflows.
Auto Layout + AI Suggestions
If Auto Layout was already powerful, AI can now automatically suggest layout rules. The AI reads "how these components should be arranged" and makes suggestions.
Make Designs (Text-to-UI Generation)
Type something like "dark mode dashboard, sidebar included, data table in the main area" and it generates a rough wireframe. The output isn't highly polished, but it's useful as a starting point for sketching.
Rename Layers
Automatically reorganizes dozens of layers into meaningful names. A tedious but important task that AI handles for you.
Translation Automation
Automatically translates text layers when designing multilingual services. Time spent on manual translation work has been significantly reduced.
Adobe AI (Generative Fill, Express AI, etc.)
Adobe Photoshop's Generative Fill is already used daily by many designers.
- Image background extension (Generative Expand)
- Object removal and automatic background fill
- Partial edits (Inpainting)
- Texture generation
Adobe Illustrator's AI features continue to expand as well, including vector image generation, pattern automation, and font matching.
Time Saved with Automation vs. Time Still Needed
Let me be honest. The following tasks have become much faster with AI:
- Basic asset generation (icon sets, background images, mockup images)
- Generating dozens of screens based on a design system
- Retouching old images and unifying styles
- Testing multilingual layouts
Meanwhile, tasks that still take significant time:
- Defining the uniqueness of a brand identity
- Designing complex user flows
- Designing with accessibility and inclusivity in mind
- Defining subtle interaction details
3. Design Competencies AI Cannot Replace
Now for the core of the matter. No matter how capable AI becomes, there are design competencies it cannot replace. And the value of those competencies is actually increasing.
User Research and Genuine Empathy
AI can analyze existing data. But discovering needs that don't yet exist is a different matter.
The moment in a user interview when you realize "oh, that's actually how they use it"; the ability to identify the real problem from what users don't say; discovering latent needs through observation — these remain core competencies of a human designer.
More importantly, AI cannot "empathize." When a designer genuinely empathizes with a user's pain, and that emotion is woven into design decisions, users feel it. The sense that "this product understands me" comes from empathy, not data analysis.
Brand Strategy and Direction
"What color should our brand use?" is a surface-level question. The real questions are: "What emotions should our brand evoke? What values should it convey? Will this direction still be valid ten years from now?"
AI can say "in this industry, these colors are typically used." But the strategic courage to say "we need to break convention to differentiate from our competitors" is something AI cannot produce.
Naver's green, Kakao's yellow, Toss's blue — these colors became brand assets not because data recommended them, but because of deep understanding of what the brand values and its emotional connection with users.
Complex UX Architecture
Designing not just a single screen, but a user journey where dozens of screens are organically connected, is something AI does poorly.
# Example of complex UX architecture: loan application flow for a financial app
#
# Branching by user state:
# - New user vs. existing user
# - Different flows per credit score range
# - Progress state based on document submission status
# - Handling bank system response delays
# - Recovery when user abandons mid-flow and returns
# - Accessibility requirements (visually impaired, elderly users)
# - Mobile vs. desktop differentiation
#
# Designing all these cases with consistency
# requires both systems thinking and domain knowledge simultaneously.
Transitions between each state, exception handling, error states, empty states, loading states — designing all of these consistently remains the domain of an experienced UX designer.
Storytelling and Persuasion
Good design contains a story. How a single landing page turns a visitor into a customer; what emotions it evokes along that journey, what doubts it resolves, and at what moment it prompts action.
This storytelling ability is a composite of copywriting, visual design, interaction design, and psychology. AI can support each element to some degree, but crafting an integrated story is still the work of a human designer.
4. Using AI as a Powerful Design Tool
Accelerating Ideation with Midjourney
Midjourney is powerful in the early stages of brand concepting and when aligning on direction with clients.
A practical mood board workflow:
# Step 1: Extract keywords
# Extract core emotional keywords from the client brief
# e.g., "trust, innovation, warmth, Korean sensibility, future-oriented"
# Step 2: Experiment with prompt combinations
# "trustworthy Korean fintech brand identity,
# warm yet professional, young professionals target,
# soft blue and warm beige palette,
# --style raw --ar 16:9"
# Step 3: Explore multiple directions at once
# Visualize 5-10 different mood directions in 30 minutes
# Step 4: Direction discussion with client
# Much more efficient discussion with concrete visual materials
In the past, creating a single mood board took half a day. Now you can show a client five directions in under 30 minutes.
Accelerating Mockup Creation with AI
AI saves enormous amounts of time in product photography, app screenshots, and marketing material production.
Practical use of Photoshop Generative Fill:
- Background replacement for product photos (reducing set production costs)
- Automatic changes to backgrounds for different seasons and times of day
- Clothing wear simulation without models
- Restoring damaged brand materials
App screen mockup creation:
The process of applying design file screenshots to actual device mockups has also been accelerated by AI. Plugins are available that automatically apply dozens of screens to various device frames.
The Code-Literate Designer: Figma Dev Mode
A newly important competency for designers in the AI era is the ability to collaborate with developers.
Figma Dev Mode offers functionality to automatically convert designs into code.
/* Example CSS auto-generated by Figma Dev Mode */
.button-primary {
display: flex;
flex-direction: row;
justify-content: center;
align-items: center;
padding: 12px 24px;
gap: 8px;
background: #3b82f6;
border-radius: 8px;
font-family: 'Pretendard', sans-serif;
font-weight: 600;
font-size: 16px;
color: #ffffff;
}
Designers don't need to perfectly understand this code. But knowing:
- What
border-radiusmeans - What
flexmeans - The difference between pixels and rem
...makes collaboration with developers significantly smoother. It enables far more productive conversations when trying to understand "why did this turn out differently?"
Automating Repetitive Work with AI
Designer work involves more repetitive tasks than you might think. Using AI and plugins can significantly reduce that time.
Figma plugin usage:
- Content Reel: automatically fills in realistic dummy data
- Rename It: bulk-renames layers
- Autoflow: automatically generates flow arrows
- Stark: automated accessibility checks (color contrast, vision impairment simulation)
5. The Unique Nature of AI Product Design: AI UX
Designing the UX for products that include AI features requires special considerations beyond general UX. This is the fastest-growing area of specialization for designers in 2026.
Core Principles of AI UX
1. Expressing Uncertainty
AI doesn't always provide definitive answers. There is uncertainty, like "93% probability that this photo contains a cat." How do you visually represent that uncertainty?
# Patterns for expressing AI uncertainty:
# - Confidence bar: express confidence level as a visual progress bar
# - Text labels: "AI-generated", "AI recommended", "High confidence"
# - Progressive disclosure: core result -> detailed explanation -> source data
# - Feedback request: "Was this result helpful? Thumbs up / Thumbs down"
2. Graceful Handling of AI Failures
UX design for situations where AI is wrong or cannot answer.
- Empty State: when AI can't make a recommendation due to insufficient training data
- Error State: when the AI API fails to respond
- Low Confidence State: when AI can only guess
- Fallback State: transitioning to manual functionality instead of AI
3. The UX of Streaming Responses
Interfaces where text is generated in real time, like ChatGPT. This "typing effect" is not just a visual effect. It reduces user cognitive load and makes waiting feel more natural. These subtle interaction design choices significantly change the user experience.
4. Transparency and Explainability
Should you show users "why this recommendation was made"? If so, how should you express it?
Netflix's "Because you watched [movie]" label is a good example of AI UX transparency. It's simple but makes users understand and trust the AI's logic.
Basic AI Concepts Designers Need to Know
You don't need to understand them fully, but you should know the following concepts:
- Hallucination: The phenomenon where an LLM fabricates facts. UX design is needed to prevent this (e.g., displaying information sources).
- Context window: The limit on the amount of text an LLM can process at once. How do you handle the UX for an AI "forgetting" earlier parts of a long conversation?
- Temperature: The level of creativity/randomness in AI responses. The UX for a creative AI differs from that of an accurate AI.
- Prompt injection: Attempts by malicious users to manipulate an AI system. Security-conscious UX design is required.
6. Positioning Strategies for Designers in the AI Era
Positioning Option 1: AI UX Specialist
A designer who specializes in designing the UX for AI products. This is currently one of the most in-demand directions.
Required competencies:
- Understanding of AI system characteristics (hallucination, uncertainty, etc.)
- Understanding of AI product metrics (user satisfaction, AI trust level, etc.)
- Designing prompt interfaces
- Designing AI agent interfaces
Positioning Option 2: Brand Identity Specialist
Paradoxically, the more AI mass-produces images, the more valuable a truly unique brand identity becomes. When visuals that look AI-generated are everywhere, truly human and distinctive brands stand out.
Designers taking this direction:
- Use AI tools for ideation
- But arrive at the final identity from deep brand strategy
- Develop a distinctive personal style
Positioning Option 3: Full-Stack Designer
A designer who understands code, uses AI tools, and can discuss product strategy. Demand is very high among small teams and startups.
# Example tech stack for a full-stack designer:
# - Figma (UI/UX design)
# - Framer or Webflow (design to website)
# - HTML/CSS basics (developer collaboration)
# - Midjourney/Firefly (asset generation)
# - ChatGPT/Claude (copywriting assistance)
# - Notion (documentation and UX writing)
Such a designer can single-handedly handle "design + some frontend + AI tool usage" at a solo-founder venture or small startup.
Positioning Option 4: AI Tool Evangelist
The role of leading AI tool adoption within the design team. Many design teams still haven't systematically adopted AI tools.
- Designing the team's AI workflow
- Experimenting with and evaluating AI tools
- Internal training and guideline creation
- Documenting AI usage best practices
7. Portfolio: Showcasing AI Usage + Human-Centered Design
Core Principles for a Design Portfolio in the AI Era
Simply showing "pretty screens" is no longer enough, because AI can mass-produce attractive images.
A strong portfolio shows the thinking process behind "why was it designed this way."
Case Study Structure
Organize each project with the following structure:
# Case study structure:
#
# 1. Problem Definition (Problem)
# - Which user's pain point was solved?
# - What was the business objective?
#
# 2. Research and Discovery (Research and Insights)
# - What method was used to understand users?
# - What were the key insights?
#
# 3. Design Process (Design Process)
# - What ideas were explored? (including how AI tools were used)
# - What decisions were made and why?
# - What alternatives were explored and why weren't they chosen?
#
# 4. Final Solution (Solution)
# - The completed design
# - How were AI tools used?
#
# 5. Impact (Impact)
# - What results occurred after launch?
# - What was the user response?
Being Transparent About AI Usage
Don't hide the fact that you used AI tools. It's actually a strength.
Example of a good portfolio story:
"In the early concept stage, I explored 15 mood directions with Midjourney. This allowed the client and me to align on direction in 30 minutes, instead of a 3-hour meeting. Based on the chosen direction, I then designed the actual brand assets directly. AI-generated images were used only as a source of inspiration; all final assets were produced by hand."
This kind of story shows "I know how to use AI strategically and responsibly."
Including AI UX Projects
If possible, include a case of UX design for a product with an AI feature in your portfolio.
- AI chatbot interface design
- UX for AI recommendation systems
- Trust indicator design for AI-generated content
- AI agent dashboards
If you don't have such a case, a hypothetical project — "how I would redesign this existing AI product" — is also great portfolio material.
A 12-Month Growth Roadmap for Designers in the AI Era
Months 1-3: AI Tool Mastery
Practice goals:
- Intensive Midjourney practice: 30 minutes daily, experimenting with various style prompts
- Try every Figma AI feature
- Produce one complete marketing piece with Adobe Firefly
Learning goals:
- Understand copyright issues in AI image generation
- Collect and analyze 20 AI UX patterns (from ChatGPT, Perplexity, Notion AI, etc.)
Months 4-6: Deepening AI UX Understanding
Practice goals:
- Complete the UX design for one hypothetical app with an AI feature
- Produce 5 different concepts for expressing AI uncertainty
Learning goals:
- Read 20 articles on "Design for AI" (Nielsen Norman Group's AI UX guidelines)
- Understand basic LLM concepts (2-3 hours of investment)
Months 7-9: Specialization and Portfolio Assembly
- Complete one representative project in your chosen positioning direction
- Publish 3 case studies on your portfolio site
- Present to a design community (Pagchi-won, UXKL, UX Seoul, etc.)
Months 10-12: Career Transition or Position Upgrade
- Clearly define your target role
- Strengthen networking
- Execute your job change or internal positioning strategy
Closing Thoughts: The Essence of Designers in the AI Era
Paradoxically, as AI mass-produces images, the importance of the question "why does this design have to be this way?" has grown.
AI has learned from millions of design patterns. But answering "the emotions this brand's users feel," "why this interaction feels natural in this context," "what this color means in this culture" — these questions are still the domain of a human designer.
Designers are not people who make beautiful things. They are people who solve human problems through visual experience. The more AI handles the visual execution, the more important the designer's role becomes in giving direction and meaning to the results.
Don't be afraid of AI tools. They are extensions of your hands and eyes. What matters is your judgment, your empathy, and your creativity in deciding what to create with those tools.
The AI Era Survival Guide series continues. The next installment takes a comprehensive look at job search and career change strategies in the AI era.