- Published on
OpenStack & KVM 가상화 완전 가이드 2025: 프라이빗 클라우드 구축부터 운영까지
- Authors

- Name
- Youngju Kim
- @fjvbn20031
목차
1. 가상화 기초: 왜 가상화인가?
1.1 가상화의 정의와 역사
가상화(Virtualization)는 물리적 하드웨어 위에 여러 개의 격리된 가상 환경을 만드는 기술이다. 1960년대 IBM 메인프레임에서 시작된 이 기술은 2000년대 x86 가상화의 대중화와 함께 현대 클라우드 컴퓨팅의 핵심 기반이 되었다.
가상화가 필요한 이유:
- 서버 통합: 물리 서버 활용률을 10-15%에서 60-80%로 향상
- 비용 절감: 하드웨어 구매, 전력, 냉각, 공간 비용 대폭 감소
- 민첩성: 수분 내 새 서버 프로비저닝 (물리 서버는 수주 소요)
- 격리: 워크로드 간 보안 격리, 장애 격리
- 재해복구: 스냅샷, 라이브 마이그레이션으로 빠른 복구
1.2 Type-1 vs Type-2 하이퍼바이저
하이퍼바이저는 가상 머신을 생성하고 관리하는 소프트웨어 계층이다.
Type-1 (Bare-Metal) 하이퍼바이저:
하드웨어 위에 직접 설치되어 실행된다. 호스트 OS가 필요 없어 오버헤드가 적고 성능이 우수하다.
- KVM: Linux 커널 모듈로 동작. 리눅스 자체가 하이퍼바이저 역할
- VMware ESXi: 엔터프라이즈 표준. vSphere 에코시스템
- Xen: AWS EC2의 초기 기반. Citrix에서 관리
- Microsoft Hyper-V: Windows Server에 내장
Type-2 (Hosted) 하이퍼바이저:
기존 OS 위에 애플리케이션으로 설치된다. 개발/테스트 환경에 적합하다.
- VirtualBox: Oracle의 오픈소스 솔루션. 크로스 플랫폼
- VMware Workstation/Fusion: 데스크톱 가상화
- Parallels Desktop: macOS 전용
1.3 가상화 방식 비교
+--------------------------------------------------+
| 가상화 방식 비교 |
+--------------------------------------------------+
| 전가상화 (Full Virtualization) |
| - 게스트 OS 수정 없이 실행 |
| - Binary Translation으로 특권 명령 처리 |
| - 성능 오버헤드 있음 |
+--------------------------------------------------+
| 반가상화 (Para-virtualization) |
| - 게스트 OS 커널 수정 필요 (Hypercall) |
| - Xen이 대표적 |
| - 성능 우수하나 호환성 제한 |
+--------------------------------------------------+
| 하드웨어 지원 가상화 (HW-assisted) |
| - Intel VT-x / AMD-V |
| - 게스트 OS 수정 불필요 + 높은 성능 |
| - KVM이 이 방식 활용 |
+--------------------------------------------------+
1.4 하이퍼바이저 비교표
| 구분 | KVM | VMware ESXi | Xen | Hyper-V |
|---|---|---|---|---|
| 유형 | Type-1 | Type-1 | Type-1 | Type-1 |
| 라이선스 | 오픈소스 (GPL) | 상용 (무료 에디션 있음) | 오픈소스 (GPL) | Windows 포함 |
| 호스트 OS | Linux | 독립 커널 | 독립 커널 | Windows Server |
| 성능 | 우수 | 우수 | 우수 | 양호 |
| GPU 패스스루 | 지원 (VFIO) | 지원 (vGPU) | 제한적 | 지원 (DDA) |
| 라이브 마이그레이션 | 지원 | vMotion | 지원 | Live Migration |
| 관리 도구 | libvirt, OpenStack | vCenter | XenCenter | SCVMM |
| 생태계 | 방대 (Linux) | 가장 큰 엔터프라이즈 | 축소 중 | Windows 생태계 |
| 엣지 배포 | 용이 | 무거움 | 가능 | 제한적 |
1.5 컨테이너 vs 가상 머신
가상 머신 (VM) 컨테이너 (Container)
+------------------+ +------------------+
| App A | App B | | App A | App B |
+------------------+ +------------------+
| Guest | Guest | | Bins/ | Bins/ |
| OS | OS | | Libs | Libs |
+------------------+ +------------------+
| Hypervisor | | Container Engine |
+------------------+ +------------------+
| Host OS | | Host OS |
+------------------+ +------------------+
| Hardware | | Hardware |
+------------------+ +------------------+
| 구분 | 가상 머신 | 컨테이너 |
|---|---|---|
| 격리 수준 | 강함 (하드웨어 수준) | 약함 (커널 공유) |
| 시작 시간 | 수십 초 ~ 수 분 | 밀리초 ~ 초 |
| 리소스 오버헤드 | 높음 (각 VM에 전체 OS) | 낮음 (커널 공유) |
| 이미지 크기 | GB 단위 | MB 단위 |
| 밀도 | 10-50 VM/서버 | 100-1000 컨테이너/서버 |
| 보안 | 강력한 격리 | gVisor, Kata로 강화 가능 |
| 사용 사례 | 이기종 OS, 레거시 앱, 높은 격리 | 마이크로서비스, CI/CD, 스케일아웃 |
언제 VM을 선택하는가:
- 서로 다른 OS 실행이 필요할 때 (Windows + Linux)
- 강력한 보안 격리가 필수일 때 (멀티테넌트)
- 레거시 애플리케이션 운영
- 커널 수준 커스터마이징 필요
언제 컨테이너를 선택하는가:
- 동일 OS에서 많은 인스턴스 실행
- 빠른 스케일링 필요
- CI/CD 파이프라인
- 마이크로서비스 아키텍처
2. KVM/QEMU 심층 분석
2.1 KVM 아키텍처
KVM(Kernel-based Virtual Machine)은 Linux 커널 2.6.20부터 포함된 하이퍼바이저 모듈이다. Linux 자체를 Type-1 하이퍼바이저로 변환한다.
+--------------------------------------------------+
| Guest VM (각 VM은 Linux 프로세스) |
| +-----------+ +-----------+ +-----------+ |
| | Guest OS | | Guest OS | | Guest OS | |
| +-----------+ +-----------+ +-----------+ |
| | QEMU | | QEMU | | QEMU | |
| | (userspace)| | (userspace)| | (userspace)| |
+--------------------------------------------------+
| Linux Kernel |
| +------+ +-------+ +--------+ +---------+ |
| | KVM | | sched | | memory | | network | |
| |module | | | | mgmt | | stack | |
| +------+ +-------+ +--------+ +---------+ |
+--------------------------------------------------+
| Hardware |
| +----------+ +-------+ +--------+ |
| | CPU | | RAM | | NIC | |
| | VT-x/SVM | | | | | |
| +----------+ +-------+ +--------+ |
+--------------------------------------------------+
동작 원리:
- KVM 커널 모듈(
kvm.ko,kvm-intel.ko또는kvm-amd.ko)이 CPU의 하드웨어 가상화 확장(VT-x/AMD-V)을 활용 - 각 VM은 일반 Linux 프로세스로 실행 (QEMU 프로세스)
- vCPU는 Linux 스레드로 스케줄링
- QEMU가 디바이스 에뮬레이션(디스크, 네트워크, USB 등) 담당
# KVM 지원 확인
grep -E '(vmx|svm)' /proc/cpuinfo
# KVM 모듈 로드
sudo modprobe kvm
sudo modprobe kvm_intel # Intel CPU
# sudo modprobe kvm_amd # AMD CPU
# KVM 디바이스 확인
ls -la /dev/kvm
2.2 vCPU 핀닝과 NUMA 토폴로지
NUMA(Non-Uniform Memory Access) 아키텍처에서 CPU와 메모리의 물리적 위치가 성능에 큰 영향을 미친다.
# NUMA 토폴로지 확인
numactl --hardware
# node 0: cpus: 0 1 2 3 4 5 6 7 16 17 18 19 20 21 22 23
# node 0: size: 65536 MB
# node 1: cpus: 8 9 10 11 12 13 14 15 24 25 26 27 28 29 30 31
# node 1: size: 65536 MB
# lstopo로 시각화
lstopo --of png > topology.png
vCPU 핀닝 설정 (libvirt XML):
<vcpu placement='static'>8</vcpu>
<cputune>
<vcpupin vcpu='0' cpuset='0'/>
<vcpupin vcpu='1' cpuset='1'/>
<vcpupin vcpu='2' cpuset='2'/>
<vcpupin vcpu='3' cpuset='3'/>
<vcpupin vcpu='4' cpuset='4'/>
<vcpupin vcpu='5' cpuset='5'/>
<vcpupin vcpu='6' cpuset='6'/>
<vcpupin vcpu='7' cpuset='7'/>
<emulatorpin cpuset='16-17'/>
</cputune>
<numatune>
<memory mode='strict' nodeset='0'/>
</numatune>
2.3 virtio: 준가상화 I/O
virtio는 게스트와 호스트 간 고성능 I/O를 위한 표준 인터페이스다. 하드웨어 에뮬레이션 대신 최적화된 가상 드라이버를 사용한다.
| virtio 디바이스 | 용도 | 에뮬레이션 대체 대상 |
|---|---|---|
| virtio-net | 네트워크 | e1000, rtl8139 |
| virtio-blk | 블록 스토리지 | IDE, SATA |
| virtio-scsi | SCSI 스토리지 | LSI Logic |
| virtio-balloon | 메모리 조정 | - |
| virtio-rng | 난수 생성 | - |
| virtio-gpu | 그래픽 | QXL, VGA |
| virtio-fs | 호스트 파일 공유 | 9p |
# QEMU에서 virtio 사용
qemu-system-x86_64 \
-drive file=disk.qcow2,if=virtio \
-netdev tap,id=net0,ifname=tap0,script=no \
-device virtio-net-pci,netdev=net0 \
-m 4G \
-smp 4 \
-enable-kvm
2.4 메모리 관리
Balloon 드라이버:
게스트 내부에서 메모리를 동적으로 확장/축소한다. 호스트가 메모리를 회수할 수 있게 해준다.
# balloon 크기 조정 (virsh)
virsh qemu-monitor-command myvm --hmp 'balloon 2048'
KSM (Kernel Same-page Merging):
동일한 메모리 페이지를 가진 VM들의 페이지를 공유하여 메모리를 절약한다.
# KSM 활성화
echo 1 > /sys/kernel/mm/ksm/run
echo 1000 > /sys/kernel/mm/ksm/pages_to_scan
echo 20 > /sys/kernel/mm/ksm/sleep_millisecs
# KSM 상태 확인
cat /sys/kernel/mm/ksm/pages_shared
cat /sys/kernel/mm/ksm/pages_sharing
Hugepages:
기본 4KB 페이지 대신 2MB 또는 1GB 대형 페이지를 사용하여 TLB 미스를 줄인다.
# Hugepages 설정
echo 4096 > /proc/sys/vm/nr_hugepages # 4096 x 2MB = 8GB
# /etc/default/grub에 추가
# GRUB_CMDLINE_LINUX="hugepagesz=1G hugepages=32 default_hugepagesz=1G"
<!-- libvirt XML에서 hugepages 설정 -->
<memoryBacking>
<hugepages>
<page size='1' unit='GiB'/>
</hugepages>
</memoryBacking>
2.5 SR-IOV와 GPU 패스스루
SR-IOV (Single Root I/O Virtualization):
물리 NIC를 여러 가상 함수(VF)로 분할하여 VM에 직접 할당한다.
# SR-IOV VF 생성
echo 4 > /sys/class/net/enp3s0f0/device/sriov_numvfs
# VF 목록 확인
lspci | grep "Virtual Function"
# VM에 VF 할당 (libvirt XML)
<hostdev mode='subsystem' type='pci' managed='yes'>
<source>
<address domain='0x0000' bus='0x03' slot='0x10' function='0x0'/>
</source>
</hostdev>
GPU 패스스루 (VFIO):
# IOMMU 활성화 (GRUB)
# Intel: intel_iommu=on iommu=pt
# AMD: amd_iommu=on iommu=pt
# GPU를 vfio-pci에 바인딩
echo "10de 2204" > /sys/bus/pci/drivers/vfio-pci/new_id
2.6 라이브 마이그레이션
실행 중인 VM을 다운타임 없이 다른 호스트로 이동한다.
Pre-copy 마이그레이션 흐름:
1. 전체 메모리를 대상 호스트로 전송
2. 변경된 더티 페이지를 반복 전송
3. 더티 페이지가 충분히 줄어들면 VM 일시 정지
4. 남은 더티 페이지 전송
5. 대상 호스트에서 VM 재개
# virsh 라이브 마이그레이션
virsh migrate --live --persistent --undefinesource \
myvm qemu+ssh://dest-host/system
# 마이그레이션 속도 제한 (대역폭 MB/s)
virsh migrate-setspeed myvm 100
# 마이그레이션 상태 확인
virsh domjobinfo myvm
3. libvirt 관리
3.1 libvirt 아키텍처
libvirt는 다양한 하이퍼바이저를 통합 관리하는 API/데몬이다.
+--------------------------------------------------+
| Management Tools |
| +--------+ +----------+ +---------+ +--------+ |
| | virsh | |virt- | |OpenStack| |oVirt | |
| | | |manager | |Nova | | | |
| +--------+ +----------+ +---------+ +--------+ |
+--------------------------------------------------+
| libvirt API (C, Python, Go, Java bindings) |
+--------------------------------------------------+
| libvirtd daemon |
+--------------------------------------------------+
| Drivers |
| +-----+ +------+ +------+ +-------+ +--------+ |
| | KVM | | Xen | | LXC | | VBox | | VMware | |
| +-----+ +------+ +------+ +-------+ +--------+ |
+--------------------------------------------------+
3.2 virsh 핵심 명령어
# VM 생명주기 관리
virsh list --all # 모든 VM 목록
virsh start myvm # VM 시작
virsh shutdown myvm # 게스트 OS 정상 종료
virsh destroy myvm # 강제 종료 (전원 차단)
virsh reboot myvm # 재부팅
virsh suspend myvm # 일시 정지 (메모리 상태 유지)
virsh resume myvm # 재개
# VM 생성/삭제
virsh define vm.xml # XML로 VM 정의
virsh undefine myvm # VM 정의 제거
virsh undefine myvm --remove-all-storage # 스토리지까지 제거
# 스냅샷 관리
virsh snapshot-create-as myvm snap1 "First snapshot"
virsh snapshot-list myvm
virsh snapshot-revert myvm snap1
virsh snapshot-delete myvm snap1
# 리소스 조정
virsh setvcpus myvm 4 --live # vCPU 핫 추가
virsh setmem myvm 8G --live # 메모리 조정
# 콘솔/디스플레이 접속
virsh console myvm # 시리얼 콘솔
virsh vncdisplay myvm # VNC 포트 확인
3.3 XML 도메인 설정
<domain type='kvm'>
<name>web-server-01</name>
<uuid>auto-generated</uuid>
<memory unit='GiB'>8</memory>
<currentMemory unit='GiB'>8</currentMemory>
<vcpu placement='static'>4</vcpu>
<os>
<type arch='x86_64' machine='pc-q35-8.2'>hvm</type>
<boot dev='hd'/>
</os>
<features>
<acpi/>
<apic/>
</features>
<cpu mode='host-passthrough' check='none' migratable='on'>
<topology sockets='1' dies='1' cores='4' threads='1'/>
</cpu>
<clock offset='utc'>
<timer name='rtc' tickpolicy='catchup'/>
<timer name='pit' tickpolicy='delay'/>
<timer name='hpet' present='no'/>
</clock>
<devices>
<emulator>/usr/bin/qemu-system-x86_64</emulator>
<!-- virtio 디스크 -->
<disk type='file' device='disk'>
<driver name='qemu' type='qcow2' cache='writeback' discard='unmap'/>
<source file='/var/lib/libvirt/images/web-server-01.qcow2'/>
<target dev='vda' bus='virtio'/>
</disk>
<!-- virtio 네트워크 -->
<interface type='bridge'>
<source bridge='br0'/>
<model type='virtio'/>
</interface>
<!-- VNC 디스플레이 -->
<graphics type='vnc' port='-1' autoport='yes' listen='0.0.0.0'/>
<!-- 시리얼 콘솔 -->
<serial type='pty'>
<target port='0'/>
</serial>
<console type='pty'>
<target type='serial' port='0'/>
</console>
</devices>
</domain>
3.4 스토리지 풀
# 디렉토리 기반 스토리지 풀
virsh pool-define-as default dir --target /var/lib/libvirt/images
virsh pool-build default
virsh pool-start default
virsh pool-autostart default
# LVM 스토리지 풀
virsh pool-define-as lvm-pool logical \
--source-name vg_vms --target /dev/vg_vms
# Ceph RBD 스토리지 풀
virsh pool-define-as ceph-pool rbd \
--source-host mon1.example.com \
--source-name libvirt-pool \
--auth-type ceph --auth-username libvirt
# 볼륨 관리
virsh vol-create-as default myvm.qcow2 50G --format qcow2
virsh vol-list default
virsh vol-delete myvm.qcow2 default
3.5 네트워크 설정
# NAT 네트워크 (기본)
virsh net-list --all
# 브릿지 네트워크 설정 (netplan 예시)
cat /etc/netplan/01-bridge.yaml
network:
version: 2
ethernets:
enp3s0:
dhcp4: false
bridges:
br0:
interfaces: [enp3s0]
addresses: [192.168.1.100/24]
routes:
- to: default
via: 192.168.1.1
nameservers:
addresses: [8.8.8.8, 8.8.4.4]
4. OpenStack 아키텍처 (전체 그림)
4.1 OpenStack 개요
OpenStack은 데이터센터의 컴퓨트, 스토리지, 네트워크 리소스를 풀(pool)로 관리하여 사용자에게 셀프서비스 API로 제공하는 클라우드 OS이다.
+------------------------------------------------------------+
| Horizon (Dashboard) |
+------------------------------------------------------------+
| OpenStack API Layer |
+------+-------+--------+--------+-------+--------+----------+
| Key- | Nova |Neutron | Cinder | Glance| Swift | Heat |
|stone | Comp- | Net- | Block | Image | Object | Orches- |
| Auth | ute | work | Store | | Store | tration |
+------+-------+--------+--------+-------+--------+----------+
| RabbitMQ (Message Queue) | MariaDB/Galera (Database) |
+------------------------------------------------------------+
| Hypervisor (KVM/QEMU) |
+------------------------------------------------------------+
| Physical Infrastructure |
+------------------------------------------------------------+
4.2 핵심 서비스 상세
Keystone (인증/인가):
기능:
- 토큰 기반 인증 (Fernet, JWT)
- RBAC (Role-Based Access Control)
- 멀티테넌시 (Project/Domain 격리)
- LDAP/AD 연동, SAML/OIDC Federation
- 서비스 카탈로그 (엔드포인트 레지스트리)
# Keystone 토큰 발급
openstack token issue
# 프로젝트/사용자 관리
openstack project create --domain default myproject
openstack user create --domain default --password-prompt myuser
openstack role add --project myproject --user myuser member
Nova (컴퓨트):
Nova 내부 구성:
- nova-api: REST API 엔드포인트
- nova-scheduler: VM 배치 알고리즘 (FilterScheduler)
- nova-conductor: DB 접근 프록시 (보안)
- nova-compute: 하이퍼바이저 드라이버 (libvirt)
- Placement: 리소스 추적 서비스
# 인스턴스 생성
openstack server create \
--flavor m1.large \
--image ubuntu-22.04 \
--network internal-net \
--security-group default \
--key-name mykey \
web-server-01
# flavor 관리
openstack flavor create --vcpus 4 --ram 8192 --disk 80 m1.large
# 인스턴스 관리
openstack server list
openstack server show web-server-01
openstack server resize web-server-01 m1.xlarge
Neutron (네트워킹):
Neutron 구성:
- neutron-server: API 서버
- ML2 Plugin: 모듈러 네트워크 드라이버
- OVS/OVN Agent: 가상 스위치 관리
- L3 Agent: 라우팅, NAT
- DHCP Agent: IP 할당
- Metadata Agent: 인스턴스 메타데이터
# 네트워크 생성
openstack network create internal-net
openstack subnet create --network internal-net \
--subnet-range 10.0.1.0/24 \
--gateway 10.0.1.1 \
--dns-nameserver 8.8.8.8 \
internal-subnet
# 라우터 생성
openstack router create main-router
openstack router set --external-gateway external-net main-router
openstack router add subnet main-router internal-subnet
# Floating IP 할당
openstack floating ip create external-net
openstack server add floating ip web-server-01 203.0.113.10
# 보안 그룹
openstack security group rule create --protocol tcp \
--dst-port 80:80 --remote-ip 0.0.0.0/0 default
openstack security group rule create --protocol tcp \
--dst-port 22:22 --remote-ip 10.0.0.0/8 default
Cinder (블록 스토리지):
# 볼륨 생성 및 연결
openstack volume create --size 100 data-vol
openstack server add volume web-server-01 data-vol
# 스냅샷
openstack volume snapshot create --volume data-vol snap-before-upgrade
# 볼륨 타입 (백엔드 지정)
openstack volume type create --property volume_backend_name=ceph-ssd fast-ssd
openstack volume create --size 50 --type fast-ssd fast-data
Glance (이미지 서비스):
# 이미지 업로드
openstack image create "ubuntu-22.04" \
--file ubuntu-22.04-server-cloudimg-amd64.img \
--disk-format qcow2 \
--container-format bare \
--public
# 이미지 목록
openstack image list
Heat (오케스트레이션):
# HOT (Heat Orchestration Template) 예시
heat_template_version: 2021-04-16
description: Web server stack
parameters:
image:
type: string
default: ubuntu-22.04
flavor:
type: string
default: m1.large
resources:
web_server:
type: OS::Nova::Server
properties:
name: web-server
image: { get_param: image }
flavor: { get_param: flavor }
networks:
- network: internal-net
security_groups:
- default
web_port:
type: OS::Neutron::Port
properties:
network: internal-net
floating_ip:
type: OS::Neutron::FloatingIP
properties:
floating_network: external-net
port_id: { get_resource: web_port }
outputs:
server_ip:
value: { get_attr: [floating_ip, floating_ip_address] }
4.3 추가 서비스
| 서비스 | 프로젝트 | 설명 | AWS 대응 |
|---|---|---|---|
| 컴퓨트 | Nova | VM 관리 | EC2 |
| 네트워크 | Neutron | SDN | VPC |
| 블록 스토리지 | Cinder | 디스크 | EBS |
| 오브젝트 스토리지 | Swift | 분산 스토리지 | S3 |
| 이미지 | Glance | VM 이미지 | AMI |
| 인증 | Keystone | IAM | IAM |
| 오케스트레이션 | Heat | 스택 관리 | CloudFormation |
| 대시보드 | Horizon | 웹 UI | Console |
| 베어메탈 | Ironic | 물리 서버 | - |
| DNS | Designate | DNS 관리 | Route 53 |
| 로드밸런서 | Octavia | LBaaS | ELB |
| 파일 스토리지 | Manila | 공유 파일시스템 | EFS |
| 컨테이너 | Magnum | K8s 클러스터 | EKS |
5. OpenStack 배포
5.1 배포 방식 비교
| 방식 | 용도 | 복잡도 | 프로덕션 |
|---|---|---|---|
| DevStack | 개발/테스트 | 낮음 | 불가 |
| Kolla-Ansible | 프로덕션 | 중간 | 권장 |
| TripleO | 대규모 프로덕션 | 높음 | 가능 |
| MicroStack (Snap) | 단일 노드 테스트 | 매우 낮음 | 불가 |
| OpenStack-Ansible | 프로덕션 | 중간 | 가능 |
5.2 최소 하드웨어 요구사항
컨트롤러 노드 (3대 HA):
- CPU: 8코어 이상
- RAM: 32GB 이상
- Disk: 500GB SSD (OS + DB)
- NIC: 2개 이상 (관리 + 서비스)
컴퓨트 노드 (N대):
- CPU: 최대한 많은 코어 (VM 수에 비례)
- RAM: 128GB+ (VM 메모리 합계 + 오버헤드)
- Disk: SSD (로컬 에페메럴)
- NIC: 2개 이상
스토리지 노드 (Ceph OSD, 3대 이상):
- CPU: OSD당 1코어
- RAM: OSD당 4GB
- Disk: NVMe/SSD (OSD) + SSD (WAL/DB)
- NIC: 10GbE 이상
5.3 Kolla-Ansible 배포
# 1. 준비
pip install kolla-ansible
# 2. 인벤토리 설정
cp /usr/share/kolla-ansible/ansible/inventory/multinode .
# 인벤토리 파일 편집
# 3. 전역 설정
cat /etc/kolla/globals.yml
# /etc/kolla/globals.yml
kolla_base_distro: "ubuntu"
kolla_install_type: "source"
openstack_release: "2024.2"
kolla_internal_vip_address: "10.0.0.100"
kolla_external_vip_address: "203.0.113.100"
network_interface: "eth0"
neutron_external_interface: "eth1"
enable_cinder: "yes"
enable_cinder_backend_lvm: "no"
enable_cinder_backend_ceph: "yes"
enable_heat: "yes"
enable_horizon: "yes"
enable_neutron_provider_networks: "yes"
ceph_cinder_user: "cinder"
ceph_cinder_pool_name: "volumes"
# 4. 패스워드 생성
kolla-genpwd
# 5. 부트스트랩
kolla-ansible -i multinode bootstrap-servers
# 6. 사전 검증
kolla-ansible -i multinode prechecks
# 7. 배포
kolla-ansible -i multinode deploy
# 8. 후처리 (OpenRC/clouds.yaml 생성)
kolla-ansible -i multinode post-deploy
# 9. 확인
source /etc/kolla/admin-openrc.sh
openstack service list
openstack compute service list
openstack network agent list
5.4 네트워크 아키텍처
+------------------------------------------------------------+
| External Network (203.0.113.0/24) |
| | |
| [External Router] |
| | |
| Management Network (10.0.0.0/24) |
| +----------+ +----------+ +----------+ |
| |Controller| |Controller| |Controller| |
| | Node 1 | | Node 2 | | Node 3 | |
| +----------+ +----------+ +----------+ |
| | | | |
| Tunnel Network (10.0.1.0/24) - VXLAN |
| | | | |
| +----------+ +----------+ +----------+ |
| | Compute | | Compute | | Compute | |
| | Node 1 | | Node 2 | | Node 3 | |
| +----------+ +----------+ +----------+ |
| | | | |
| Storage Network (10.0.2.0/24) - Ceph |
| | | | |
| +----------+ +----------+ +----------+ |
| | Ceph | | Ceph | | Ceph | |
| | OSD 1 | | OSD 2 | | OSD 3 | |
| +----------+ +----------+ +----------+ |
+------------------------------------------------------------+
6. 네트워킹 심층 분석
6.1 Provider vs Self-service 네트워크
Provider 네트워크:
- 관리자가 생성, 물리 네트워크에 직접 매핑
- VLAN 기반, 외부 라우팅 장비 사용
- 단순하지만 유연성 부족
Self-service (Tenant) 네트워크:
- 테넌트가 자유롭게 생성
- VXLAN/GRE 터널링으로 격리
- Neutron L3 에이전트가 라우팅 담당
- Floating IP로 외부 접근
6.2 OVS vs OVN
Open vSwitch (OVS):
- 소프트웨어 가상 스위치
- neutron-openvswitch-agent가 관리
- 성숙하고 안정적
- 대규모에서 성능 저하 가능
OVN (Open Virtual Network):
- OVS 위에 구축된 SDN 솔루션
- 분산형 아키텍처 (중앙 에이전트 불필요)
- 네이티브 L3/NAT/DHCP/ACL 지원
- 대규모 환경에서 우수한 성능
- OpenStack 최신 권장 백엔드
# OVN 구성 확인
ovn-sbctl show
ovn-nbctl show
# 논리 스위치/라우터 확인
ovn-nbctl ls-list
ovn-nbctl lr-list
6.3 VXLAN 터널링
VXLAN (Virtual Extensible LAN):
- UDP 포트 4789로 L2 프레임을 L3 네트워크에 캡슐화
- 24비트 VNI로 최대 약 1,600만개 세그먼트 (VLAN은 4,096개)
- 멀티테넌트 환경에 적합
패킷 구조:
+------+------+------+------+---------+------+------+
|Outer | Outer| Outer| VXLAN| Inner |Inner |Inner |
|Ether | IP | UDP |Header| Ether | IP |Payload|
+------+------+------+------+---------+------+------+
6.4 DVR (Distributed Virtual Router)
DVR은 라우팅을 각 컴퓨트 노드에 분산하여 네트워크 노드 병목을 해소한다.
DVR 없이 (Centralized):
VM -> Compute Node -> [Network Node: L3 Agent] -> External
DVR 적용:
VM -> Compute Node [Local L3 Agent] -> External
(East-West 트래픽도 로컬에서 처리)
6.5 보안 그룹과 FWaaS
# 보안 그룹 생성
openstack security group create web-sg
openstack security group rule create \
--protocol tcp --dst-port 80 --remote-ip 0.0.0.0/0 web-sg
openstack security group rule create \
--protocol tcp --dst-port 443 --remote-ip 0.0.0.0/0 web-sg
openstack security group rule create \
--protocol tcp --dst-port 22 --remote-ip 10.0.0.0/8 web-sg
7. 스토리지 아키텍처
7.1 스토리지 유형
+------------------------------------------------------------+
| Ephemeral Storage |
| - VM 삭제 시 함께 삭제 |
| - 로컬 디스크 (빠르지만 비영구) |
| - 스냅샷으로 영구 이미지 변환 가능 |
+------------------------------------------------------------+
| Persistent Block Storage (Cinder) |
| - VM과 독립적 생명주기 |
| - 다른 VM에 재연결 가능 |
| - 스냅샷, 복제, 암호화 지원 |
+------------------------------------------------------------+
| Object Storage (Swift) |
| - REST API로 접근 |
| - VM 이미지, 백업 데이터 저장 |
| - 높은 내구성 (3중 복제) |
+------------------------------------------------------------+
| Shared File System (Manila) |
| - NFS/CIFS 공유 |
| - 여러 VM이 동시 접근 |
+------------------------------------------------------------+
7.2 Ceph 통합
Ceph는 OpenStack과 가장 잘 통합되는 분산 스토리지이다.
Ceph + OpenStack 매핑:
- Ceph RBD -> Cinder (블록 스토리지)
- Ceph RBD -> Nova (에페메럴 디스크, 라이브 마이그레이션)
- Ceph RBD -> Glance (이미지 저장)
- Ceph RGW -> Swift API 호환 (오브젝트 스토리지)
- CephFS -> Manila (공유 파일시스템)
# Ceph 풀 생성 (OpenStack용)
ceph osd pool create volumes 128
ceph osd pool create images 64
ceph osd pool create vms 128
ceph osd pool create backups 64
# Ceph 인증 키 생성
ceph auth get-or-create client.cinder \
mon 'profile rbd' \
osd 'profile rbd pool=volumes, profile rbd pool=vms, profile rbd pool=images'
ceph auth get-or-create client.glance \
mon 'profile rbd' \
osd 'profile rbd pool=images'
7.3 스토리지 티어링
| 티어 | 미디어 | 용도 | 지연시간 |
|---|---|---|---|
| Tier 0 | NVMe SSD | 데이터베이스, 고성능 VM | 0.1ms 미만 |
| Tier 1 | SATA SSD | 일반 VM, 웹 서버 | 0.5ms 미만 |
| Tier 2 | HDD (10K RPM) | 아카이브, 백업 | 5ms 미만 |
| Tier 3 | Object (S3) | 콜드 데이터 | 수십 ms |
8. 성능 최적화
8.1 CPU 최적화
# CPU 핀닝 + NUMA 인식 (nova.conf)
# [DEFAULT]
# vcpu_pin_set = 4-31
# reserved_host_cpus = 0-3
# cpu_allocation_ratio = 4.0
# [libvirt]
# cpu_mode = host-passthrough
<!-- 고성능 VM: CPU 핀닝 + Hugepages + NUMA -->
<domain type='kvm'>
<vcpu placement='static'>16</vcpu>
<cputune>
<vcpupin vcpu='0' cpuset='4'/>
<vcpupin vcpu='1' cpuset='5'/>
<!-- ... -->
<emulatorpin cpuset='0-1'/>
</cputune>
<numatune>
<memory mode='strict' nodeset='0'/>
</numatune>
<memoryBacking>
<hugepages>
<page size='1' unit='GiB'/>
</hugepages>
</memoryBacking>
<cpu mode='host-passthrough'>
<topology sockets='1' dies='1' cores='16' threads='1'/>
<numa>
<cell id='0' cpus='0-15' memory='32' unit='GiB'/>
</numa>
</cpu>
</domain>
8.2 네트워크 최적화
성능 순서 (낮음 -> 높음):
1. virtio-net (소프트웨어 가상화) - 약 10Gbps
2. vhost-net (커널 모드 데이터패스) - 약 15Gbps
3. DPDK (유저 스페이스 패킷 처리) - 약 40Gbps
4. SR-IOV (하드웨어 패스스루) - 네이티브에 근접 (100Gbps)
8.3 스토리지 I/O 최적화
# virtio-scsi (멀티큐 지원)
# virtio-blk보다 많은 디바이스 연결 가능, SCSI 명령 지원
# I/O 스케줄러 (NVMe에는 none 권장)
echo none > /sys/block/nvme0n1/queue/scheduler
# I/O 스레드 분리 (libvirt)
<iothreads>4</iothreads>
<disk type='file' device='disk'>
<driver name='qemu' type='qcow2' cache='none' io='native' iothread='1'/>
<source file='/var/lib/libvirt/images/vm.qcow2'/>
<target dev='vda' bus='virtio'/>
</disk>
8.4 오버커밋 비율
| 리소스 | 기본값 | 권장값 (일반) | 권장값 (고성능) |
|---|---|---|---|
| CPU | 16:1 | 4:1 ~ 8:1 | 1:1 (핀닝) |
| RAM | 1.5:1 | 1:1 ~ 1.2:1 | 1:1 (Hugepages) |
| Disk | 1.0:1 | 2:1 (thin) | 1:1 (thick) |
9. OpenStack vs VMware vs Proxmox
| 항목 | OpenStack | VMware vSphere | Proxmox VE |
|---|---|---|---|
| 라이선스 | 오픈소스 (Apache 2.0) | 상용 (고가) | 오픈소스 (AGPL) + 상용 지원 |
| 하이퍼바이저 | KVM (기본) | ESXi | KVM + LXC |
| 설치 난이도 | 높음 | 중간 | 매우 낮음 |
| 학습 곡선 | 매우 가파름 | 가파름 | 완만 |
| 확장성 | 수천 노드 | 수백 노드 | 수십 노드 |
| API/자동화 | 강력한 REST API | vSphere API, PowerCLI | REST API, CLI |
| 멀티테넌시 | 강력 (Project/Domain) | 제한적 (vCenter) | 기본적 (Pool/Permission) |
| SDN | Neutron (OVS/OVN) | NSX | 기본 Linux Bridge/OVS |
| 스토리지 | Cinder + Ceph/NFS/iSCSI | vSAN, VMFS | ZFS, Ceph, LVM |
| HA | Pacemaker, HAProxy | vSphere HA, FT | 내장 HA |
| 컨테이너 지원 | Magnum (K8s) | Tanzu | 내장 LXC |
| 상용 지원 | Red Hat, Canonical, SUSE | VMware (Broadcom) | Proxmox |
| 총 소유 비용 | 낮음 (운영 인력 필요) | 매우 높음 | 매우 낮음 |
| 적합 규모 | 대규모 클라우드 | 엔터프라이즈 | 중소규모 |
선택 가이드:
- OpenStack: 대규모 프라이빗/퍼블릭 클라우드, 통신사, 연구기관, AWS 같은 셀프서비스가 필요할 때
- VMware: 기존 엔터프라이즈 환경, Windows 중심, 벤더 지원 필수, 비용 여유
- Proxmox: 중소기업, 홈랩, 간단한 가상화, 빠른 도입
10. 프로덕션 베스트 프랙티스
10.1 고가용성 (HA)
컨트롤 플레인 HA:
- 최소 3개 컨트롤러 노드
- HAProxy + Keepalived (VIP)
- Pacemaker/Corosync (클러스터 관리)
- Galera Cluster (MariaDB 동기 복제)
- RabbitMQ 미러링 큐
데이터 플레인 HA:
- Ceph (3중 복제, 노드 장애 자동 복구)
- Neutron DVR (네트워크 노드 SPOF 제거)
- Nova 인스턴스 HA (Masakari)
# HAProxy 상태 확인
echo "show stat" | socat stdio /var/run/haproxy/admin.sock
# Galera 클러스터 상태
mysql -e "SHOW STATUS LIKE 'wsrep_cluster_size';"
mysql -e "SHOW STATUS LIKE 'wsrep_cluster_status';"
# RabbitMQ 클러스터 상태
rabbitmqctl cluster_status
10.2 모니터링
# Prometheus + OpenStack Exporter 설정
# prometheus.yml
scrape_configs:
- job_name: 'openstack'
static_configs:
- targets: ['openstack-exporter:9198']
metrics_path: '/metrics'
- job_name: 'ceph'
static_configs:
- targets: ['ceph-mgr:9283']
- job_name: 'libvirt'
static_configs:
- targets: ['compute1:9177', 'compute2:9177']
주요 모니터링 메트릭:
| 카테고리 | 메트릭 | 임계값 |
|---|---|---|
| Nova | 활성 인스턴스 수 | 용량 대비 80% |
| Nova | 스케줄링 실패율 | 5% 이상 경고 |
| Neutron | Floating IP 사용률 | 90% 경고 |
| Cinder | 볼륨 생성 실패율 | 1% 이상 경고 |
| Ceph | OSD 상태 | down OSD 1개 이상 경고 |
| Ceph | 사용률 | 70% 경고, 85% 위험 |
| RabbitMQ | 큐 길이 | 1000 이상 경고 |
| MariaDB | 복제 지연 | 1초 이상 경고 |
10.3 백업 전략
# OpenStack 데이터베이스 백업
mysqldump --all-databases --single-transaction \
--routines --triggers > openstack-db-backup.sql
# Cinder 볼륨 백업 (Ceph)
rbd snap create volumes/volume-UUID@backup-20260325
rbd export volumes/volume-UUID@backup-20260325 volume-backup.raw
# Glance 이미지 백업
openstack image save --file ubuntu-backup.qcow2 ubuntu-22.04
# Nova 인스턴스 스냅샷
openstack server image create --name "web-server-backup" web-server-01
10.4 업그레이드 전략
Rolling Upgrade 절차:
1. 컨트롤러 노드를 하나씩 업그레이드
- 서비스 중단 최소화
- API 하위 호환성 활용
2. 데이터베이스 마이그레이션 실행
3. 컴퓨트 노드를 하나씩 업그레이드
- VM 라이브 마이그레이션으로 빈 노드 업그레이드
4. Neutron 에이전트 업그레이드
5. 전체 서비스 검증
11. 퀴즈
Q1. KVM은 어떤 유형의 하이퍼바이저인가?
정답: Type-1 (Bare-Metal) 하이퍼바이저
KVM은 Linux 커널 모듈로 동작하며, Linux 커널 자체를 하이퍼바이저로 변환한다. 하드웨어 위에 직접 실행되는 호스트 OS(Linux)에 내장되어 있으므로 Type-1으로 분류된다. Intel VT-x/AMD-V 하드웨어 가상화 확장을 활용하여 높은 성능을 제공한다.
Q2. OpenStack에서 가상 네트워크, 서브넷, 라우터를 관리하는 서비스는?
정답: Neutron
Neutron은 OpenStack의 네트워크 서비스(Networking-as-a-Service)이다. ML2 플러그인, OVS/OVN 에이전트, L3 에이전트, DHCP 에이전트 등으로 구성되며, 가상 네트워크, 서브넷, 라우터, 보안 그룹, Floating IP 등을 관리한다. AWS의 VPC에 대응하는 서비스이다.
Q3. VXLAN 터널링이 VLAN 대비 가지는 핵심 장점은?
정답: 세그먼트 수 확장 (4,096개에서 약 1,600만개로)
VLAN은 12비트 VLAN ID로 최대 4,096개 세그먼트만 지원한다. 반면 VXLAN은 24비트 VNI(Virtual Network Identifier)를 사용하여 약 1,600만 개의 네트워크 세그먼트를 지원한다. 이는 대규모 멀티테넌트 클라우드 환경에서 필수적이다.
Q4. KSM(Kernel Same-page Merging)의 역할은?
정답: 동일한 메모리 페이지를 가진 VM들의 메모리를 공유하여 물리 메모리 사용량을 줄인다
KSM은 Linux 커널 기능으로, 여러 VM이 동일한 내용의 메모리 페이지를 가지고 있을 때 이를 하나의 물리 페이지로 병합(Copy-on-Write)한다. 동일한 OS 이미지를 사용하는 VM이 많을수록 효과가 크다. 단, 스캐닝 오버헤드가 있으므로 적절한 튜닝이 필요하다.
Q5. OpenStack 프로덕션 배포에서 Kolla-Ansible을 선호하는 이유는?
정답: 컨테이너화된 서비스 배포로 관리 용이성, 재현성, 업그레이드 편의성을 제공
Kolla-Ansible은 각 OpenStack 서비스를 Docker 컨테이너로 패키징하여 배포한다. 이는 환경 격리(의존성 충돌 방지), 빠른 롤백, 재현 가능한 배포, 서비스별 독립 업그레이드를 가능하게 한다. Ansible 기반이므로 자동화와 반복 배포가 용이하며, 프로덕션 HA 구성도 기본 지원한다.
12. 참고 자료
- OpenStack 공식 문서 - docs.openstack.org
- KVM 공식 사이트 - linux-kvm.org
- libvirt 공식 문서 - libvirt.org/docs.html
- QEMU 공식 문서 - qemu.org/documentation
- Kolla-Ansible 문서 - docs.openstack.org/kolla-ansible/latest
- Ceph 공식 문서 - docs.ceph.com
- Open vSwitch 문서 - docs.openvswitch.org
- OVN 아키텍처 - ovn.org
- Red Hat OpenStack Platform - access.redhat.com/documentation/en-us/red_hat_openstack_platform
- Proxmox VE 문서 - pve.proxmox.com/wiki/Main_Page
- VMware vSphere 문서 - docs.vmware.com
- OpenStack Foundation (OpenInfra) - openinfra.dev
- DPDK 문서 - doc.dpdk.org
- SR-IOV 가이드 - kernel.org/doc/html/latest/PCI/sriov-howto.html