Split View: AWS Solutions Architect Professional (SAP-C02) 실전 모의고사 75문제
AWS Solutions Architect Professional (SAP-C02) 실전 모의고사 75문제
시험 개요
AWS Solutions Architect Professional(SAP-C02)은 복잡한 엔터프라이즈 환경에서 AWS 솔루션을 설계하고 최적화하는 고급 능력을 검증합니다.
| 항목 | 내용 |
|---|---|
| 시험 코드 | SAP-C02 |
| 시험 시간 | 180분 |
| 문제 수 | 75문제 |
| 합격 점수 | 750점 / 1000점 |
| 시험 언어 | 영어, 일본어, 한국어 |
도메인별 출제 비율
| 도메인 | 내용 | 비율 |
|---|---|---|
| 1 | 조직 복잡성을 위한 설계 | 26% |
| 2 | 신규 솔루션 설계 | 29% |
| 3 | 마이그레이션 계획 | 11% |
| 4 | 비용 관리 | 12% |
| 5 | 기존 솔루션의 지속적 개선 | 22% |
Professional 수준 아키텍처 패턴 요약
엔터프라이즈 멀티 계정 전략
- AWS Organizations: 루트 → OU → 계정 계층 구조
- Control Tower: 랜딩 존 자동화, 가드레일(예방적/감지적)
- IAM Identity Center(SSO): 중앙화된 인증, 권한 세트(Permission Sets)
- SCP 설계: OU 레벨에서 최소 권한 원칙 적용
마이그레이션 7R 전략
| 전략 | 설명 |
|---|---|
| Retire | 불필요한 애플리케이션 폐기 |
| Retain | 현재 환경 유지 |
| Rehost | Lift-and-Shift (변경 없이 이전) |
| Relocate | VMware → VMware Cloud on AWS |
| Replatform | 최소 변경으로 클라우드 혜택 활용 |
| Repurchase | SaaS로 전환 |
| Refactor | 클라우드 네이티브로 재설계 |
재해 복구 전략
| 전략 | RTO | RPO | 비용 |
|---|---|---|---|
| Backup & Restore | 수 시간 | 수 시간 | 최저 |
| Pilot Light | 10-30분 | 분 단위 | 낮음 |
| Warm Standby | 분 단위 | 초 단위 | 중간 |
| Multi-Site Active/Active | 초 단위 | 0에 근접 | 최고 |
실전 연습 문제 75문제
도메인 1: 조직 복잡성 설계
Q1. 대기업이 50개의 AWS 계정을 관리하면서 각 부서가 특정 AWS 서비스만 사용하도록 제한하려 합니다. 가장 효율적인 방법은?
A) 각 계정에 IAM 정책을 개별적으로 적용한다 B) AWS Organizations SCP를 OU 수준에서 적용하여 서비스 사용을 제한한다 C) IAM 권한 경계를 각 계정의 모든 역할에 적용한다 D) CloudFormation 스택셋으로 제한 정책을 각 계정에 배포한다
정답: B
설명: SCP(서비스 제어 정책)를 Organizations의 OU(조직 단위) 수준에서 적용하면 해당 OU 하위의 모든 계정에 일괄 적용됩니다. 예를 들어 개발 OU에는 특정 리전만 허용하고, 프로덕션 OU에는 추가 서비스를 허용하는 계층적 구조를 만들 수 있습니다. IAM 정책은 계정 내 사용자/역할 수준이고 SCP는 계정 수준에서 작동합니다.
Q2. 회사가 AWS Control Tower를 사용하여 새로운 랜딩 존을 설정하려 합니다. Control Tower의 "예방적 가드레일"과 "감지적 가드레일"의 차이점은?
A) 예방적 가드레일은 비용 제한이고, 감지적 가드레일은 보안 제한이다 B) 예방적 가드레일은 SCP를 통해 비준수 작업을 차단하고, 감지적 가드레일은 AWS Config를 통해 비준수 상태를 탐지한다 C) 예방적 가드레일은 IAM 정책 기반이고, 감지적 가드레일은 CloudTrail 기반이다 D) 예방적 가드레일은 필수이고, 감지적 가드레일은 선택적이다
정답: B
설명: Control Tower의 예방적 가드레일(Preventive Guardrails)은 SCP를 사용하여 비준수 작업 자체를 차단합니다(예: 특정 리전 외 리소스 생성 금지). 감지적 가드레일(Detective Guardrails)은 AWS Config 규칙을 사용하여 비준수 상태를 감지하고 알림을 보냅니다(예: MFA 없는 루트 계정 사용 감지).
Q3. 회사 A가 회사 B의 AWS 서비스를 사용해야 합니다. 회사 B는 AWS PrivateLink 기반의 서비스를 제공하고 있습니다. 이 경우 회사 A에서 해야 할 일은?
A) 두 회사의 VPC를 피어링한다 B) 회사 B가 생성한 서비스 엔드포인트에 대한 인터페이스 VPC 엔드포인트를 생성한다 C) Transit Gateway를 사용하여 두 회사의 네트워크를 연결한다 D) VPN 터널을 통해 두 회사의 VPC를 연결한다
정답: B
설명: AWS PrivateLink를 통해 공급자(회사 B)가 자신의 VPC에서 NLB를 통해 서비스를 노출하면, 소비자(회사 A)는 자신의 VPC에 인터페이스 VPC 엔드포인트를 생성하여 프라이빗으로 접근할 수 있습니다. VPC CIDR 겹침 문제가 없고, 트래픽이 AWS 네트워크 내에서만 이동합니다.
Q4. 엔터프라이즈 회사가 100개의 AWS 계정에 대해 중앙에서 SSO를 구현하려 합니다. 직원들은 회사 Active Directory 자격 증명으로 AWS에 로그인해야 합니다. 가장 적합한 아키텍처는?
A) 각 AWS 계정에 SAML 2.0 IdP를 개별 구성한다 B) IAM Identity Center(AWS SSO)를 AWS Managed Microsoft AD 또는 AD Connector와 통합한다 C) 각 계정에 IAM 사용자를 생성하고 Active Directory 비밀번호와 동기화한다 D) AWS Cognito를 IdP로 사용하여 모든 계정에 연동한다
정답: B
설명: IAM Identity Center(구 AWS SSO)는 AWS Organizations와 통합되어 중앙에서 여러 계정에 대한 SSO를 제공합니다. AWS Managed Microsoft AD(완전 관리형) 또는 AD Connector(기존 온프레미스 AD 연결)를 통해 회사 AD 자격 증명을 사용할 수 있습니다. 권한 세트(Permission Sets)로 계정별 접근 권한을 중앙 관리합니다.
Q5. 회사가 AWS Organizations의 통합 결제(Consolidated Billing)를 사용할 때의 주요 이점은?
A) 각 계정의 데이터가 자동으로 다른 계정에서 접근 가능해진다 B) 모든 계정의 사용량이 합산되어 볼륨 할인 및 RI/Savings Plans 혜택이 공유된다 C) 모든 계정이 자동으로 동일한 IAM 정책을 공유한다 D) 각 계정의 리소스가 자동으로 다른 리전에 복제된다
정답: B
설명: 통합 결제의 주요 이점은 모든 계정의 사용량이 합산되어 AWS 볼륨 할인(예: S3, 데이터 전송)이 최대화되고, 한 계정에서 구매한 RI나 Savings Plans가 동일 조직의 다른 계정에서도 자동으로 할인이 적용됩니다. 결제는 관리 계정으로 통합됩니다.
Q6. AWS Directory Service의 세 가지 옵션(AWS Managed Microsoft AD, AD Connector, Simple AD) 중 기존 온프레미스 Active Directory를 유지하면서 AWS 서비스를 인증에 사용하려 할 때 가장 적합한 옵션은?
A) Simple AD — 경량 LDAP 호환 디렉터리 B) AWS Managed Microsoft AD — AWS에서 완전 관리형 AD C) AD Connector — 온프레미스 AD로의 프록시 역할 D) IAM Identity Center — 내장 디렉터리 사용
정답: C
설명: AD Connector는 온프레미스 Active Directory로 인증 요청을 프록시하는 게이트웨이입니다. AWS 서비스(Amazon WorkSpaces, Amazon QuickSight 등)가 기존 온프레미스 AD 자격 증명으로 인증되어야 하고 AD를 AWS로 마이그레이션하지 않을 때 적합합니다.
Q7. 회사가 신규 AWS 계정을 자동으로 프로비저닝하고 보안 기준을 자동 적용하려 합니다. AWS Control Tower의 Account Factory는 어떻게 도움이 됩니까?
A) 기존 온프레미스 서버를 AWS로 자동 마이그레이션한다 B) 표준화된 AWS 계정을 자동으로 생성하고 가드레일 및 기본 구성을 자동 적용한다 C) 모든 계정의 비용을 실시간으로 모니터링하고 자동 최적화한다 D) 여러 계정에 CloudFormation 스택을 병렬로 배포한다
정답: B
설명: Control Tower의 Account Factory는 새 AWS 계정을 표준화된 방식으로 생성하는 자동화 도구입니다. Service Catalog를 통해 셀프 서비스로 계정을 프로비저닝하고, 자동으로 올바른 OU에 배치하고, 가드레일을 적용하고, 네트워크 기본 구성을 설정합니다.
Q8. 회사가 여러 AWS 계정에서 사용하는 네트워크 방화벽 정책을 중앙에서 관리하려 합니다. 어떤 서비스를 사용해야 합니까?
A) AWS Config 규칙을 각 계정에 배포한다 B) AWS Firewall Manager를 Organizations와 통합하여 방화벽 정책을 중앙 관리한다 C) Transit Gateway 라우팅 테이블로 트래픽을 중앙 검사 VPC로 라우팅한다 D) Security Hub에서 모든 계정의 방화벽 규칙을 통합 관리한다
정답: B
설명: AWS Firewall Manager는 AWS Organizations와 통합되어 여러 계정 및 리소스에 걸쳐 WAF 규칙, AWS Shield Advanced 보호, VPC 보안 그룹, AWS Network Firewall 정책, Route 53 Resolver DNS Firewall 규칙을 중앙에서 관리합니다.
Q9. 기업이 여러 AWS 계정에서 공통으로 사용되는 보안 승인 AMI를 관리하려 합니다. AMI를 프라이빗으로 유지하면서 여러 계정에서 사용하게 하는 가장 좋은 방법은?
A) 각 계정에 동일한 AMI를 복사한다 B) AWS RAM(Resource Access Manager)을 사용하여 AMI를 조직 내 계정과 공유한다 C) AMI를 퍼블릭으로 설정하고 계정 태그로 접근을 제한한다 D) S3에 AMI를 내보내고 IAM 정책으로 접근을 제한한다
정답: B
설명: AWS Resource Access Manager(RAM)를 사용하면 AMI, 서브넷, Transit Gateway, License Manager 구성 등을 AWS Organizations의 다른 계정이나 특정 계정과 안전하게 공유할 수 있습니다. 공유 AMI는 퍼블릭으로 노출되지 않으면서 여러 계정에서 사용 가능합니다.
Q10. 회사가 마케팅, 엔지니어링, 재무 부서별로 AWS 계정을 분리하고, 각 부서 관리자가 자신의 계정 내에서 IAM 사용자를 생성할 수 있지만 부서 외부의 리소스에는 접근하지 못하도록 해야 합니다. 이를 위한 가장 적절한 설계는?
A) 단일 계정에서 IAM 그룹으로 부서를 분리한다 B) 각 부서를 별도 OU에 배치하고, SCP로 계정 간 리소스 접근을 제한하고, IAM 권한 경계로 부서 관리자가 자신의 권한 범위 내에서만 역할을 생성하도록 제한한다 C) AWS Cognito를 사용하여 부서별 사용자 풀을 생성한다 D) VPC 피어링을 사용하여 부서별 리소스를 격리한다
정답: B
설명: 이 시나리오는 다층 접근 제어가 필요합니다. OU + SCP는 계정 수준에서 교차 계정 접근을 제한하고, IAM 권한 경계는 부서 관리자가 새 역할/사용자를 생성할 때 특정 범위의 권한만 부여할 수 있도록 제한합니다. 이 두 가지를 결합하면 위임된 관리자 패턴이 완성됩니다.
도메인 2: 신규 솔루션 설계
Q11. 온프레미스 데이터센터와 AWS를 연결할 때, Direct Connect와 Site-to-Site VPN의 주요 차이점과 각각의 사용 사례는?
A) Direct Connect는 퍼블릭 인터넷을 사용하고, VPN은 전용 회선을 사용한다 B) Direct Connect는 전용 물리적 연결로 일관된 네트워크 성능을 제공하고, VPN은 인터넷 기반으로 더 빠르게 설정 가능하다 C) Direct Connect는 무료이고, VPN은 유료다 D) Direct Connect는 IPv6만 지원하고, VPN은 IPv4만 지원한다
정답: B
설명: AWS Direct Connect는 온프레미스와 AWS 간의 전용 사설 네트워크 연결을 제공합니다. 일관된 대역폭, 낮은 지연 시간, 인터넷 우회로 인한 보안 향상이 특징입니다. Site-to-Site VPN은 인터넷을 통한 암호화 터널로 더 빠르게 설정(분~시간)되지만 인터넷 품질에 따라 성능이 달라집니다. DR 백업용으로 Direct Connect + VPN 조합을 사용하기도 합니다.
Q12. 회사가 마이크로서비스 아키텍처를 설계합니다. 서비스 간 비동기 통신이 필요하고, 한 서비스의 실패가 다른 서비스에 영향을 주지 않아야 합니다. 가장 적합한 패턴은?
A) 서비스 간 동기 REST API 호출 B) Amazon SQS를 통한 메시지 큐잉과 Amazon SNS를 통한 팬아웃 패턴 C) 모든 서비스를 단일 EC2 인스턴스에 배포 D) RDS를 공유 데이터베이스로 모든 서비스가 직접 접근
정답: B
설명: SQS + SNS 조합은 느슨한 결합(Loose Coupling)을 구현합니다. SNS 토픽으로 이벤트를 발행하고, 여러 SQS 큐가 구독하면 팬아웃 패턴이 구현됩니다. 한 소비자 서비스가 다운되어도 메시지는 SQS에 보존되고, 다른 서비스는 영향받지 않습니다.
Q13. 대규모 글로벌 이커머스 플랫폼이 피크 시즌에 트래픽이 100배 증가합니다. 비용 최적화와 가용성을 동시에 달성하는 아키텍처는?
A) 최대 트래픽을 처리할 수 있는 고정 크기의 서버 클러스터 B) Auto Scaling 그룹 + CloudFront + ElastiCache + Aurora Serverless를 결합한 서버리스 우선 아키텍처 C) 단일 대형 EC2 인스턴스(스케일 업) D) 온프레미스 서버와 AWS를 항상 연결된 하이브리드 구성
정답: B
설명: 100배 트래픽 급증에는 다계층 확장성이 필요합니다. CloudFront(정적 콘텐츠 캐시), ElastiCache(DB 쿼리 캐시), Auto Scaling(EC2 자동 확장), Aurora Serverless v2(DB 자동 확장)를 조합하면 트래픽에 비례한 비용으로 고가용성을 달성할 수 있습니다.
Q14. 회사의 데이터 레이크를 AWS에 구축하려 합니다. 데이터는 S3에 저장되고, 다양한 분석 팀이 SQL로 쿼리해야 합니다. 스키마 관리와 권한 제어가 중요합니다. 어떤 서비스 조합이 가장 적합합니까?
A) S3 + Redshift + IAM 정책 B) S3 + AWS Glue 데이터 카탈로그 + Amazon Athena + AWS Lake Formation C) S3 + RDS + SQL 접근 제어 D) S3 + EMR + Apache Hive 메타스토어
정답: B
설명: AWS Lake Formation은 데이터 레이크의 중앙 권한 제어를 제공합니다. Glue Data Catalog는 S3 데이터의 스키마를 관리하고, Athena는 S3 데이터에 서버리스 SQL 쿼리를 제공합니다. Lake Formation의 열 수준, 행 수준 보안으로 세밀한 접근 제어가 가능합니다.
Q15. 글로벌 실시간 게임 애플리케이션이 전 세계 플레이어 간의 최저 지연 시간 통신이 필요합니다. 어떤 아키텍처가 가장 적합합니까?
A) 단일 리전에 모든 게임 서버 배포 B) Amazon GameLift를 사용하여 멀티 리전에 게임 서버를 배포하고 Global Accelerator로 라우팅 C) CloudFront를 사용하여 게임 데이터를 캐시 D) Route 53 지연 시간 기반 라우팅만 사용
정답: B
설명: Amazon GameLift는 게임 서버 호스팅 전용 관리형 서비스로 자동 확장, 매치메이킹, 플레이어 세션 관리를 제공합니다. Global Accelerator의 애니캐스트 IP와 AWS 글로벌 네트워크를 통해 플레이어를 가장 가까운 게임 서버로 라우팅하여 지연 시간을 최소화합니다.
Q16. 서버리스 아키텍처에서 Lambda 함수가 VPC 내의 RDS 데이터베이스에 접근해야 합니다. 연결 고갈(Connection Exhaustion) 문제를 해결하는 가장 좋은 방법은?
A) Lambda 함수의 메모리를 최대로 증가시킨다 B) Amazon RDS Proxy를 사용하여 연결 풀링을 관리한다 C) Lambda 함수를 VPC 외부에서 실행하고 퍼블릭 RDS 엔드포인트를 사용한다 D) Lambda 동시 실행 수를 1로 제한한다
정답: B
설명: Lambda는 요청마다 새로운 RDS 연결을 생성하여 연결 풀이 고갈될 수 있습니다. Amazon RDS Proxy는 Lambda와 RDS 사이에서 연결 풀링을 관리하여 RDS 연결 수를 줄이고 데이터베이스의 스케일링을 개선합니다. IAM 인증 및 Secrets Manager와도 통합됩니다.
Q17. 회사가 규정 준수를 위해 모든 API 호출을 감사 가능한 불변 로그로 저장해야 합니다. 로그가 수정되거나 삭제되지 않아야 하며, 규정 준수 팀이 쿼리할 수 있어야 합니다. 가장 적합한 아키텍처는?
A) CloudTrail 로그를 EC2 인스턴스의 로컬 스토리지에 저장한다 B) CloudTrail을 S3(S3 Object Lock + MFA Delete)에 저장하고 Athena로 쿼리 가능하게 한다 C) 모든 API 호출을 DynamoDB에 저장하고 TTL로 만료 설정한다 D) CloudWatch Logs에 저장하고 IAM으로 접근을 제한한다
정답: B
설명: CloudTrail 로그를 S3에 저장하고 S3 Object Lock(WORM: Write Once Read Many)을 활성화하면 로그를 변경하거나 삭제할 수 없습니다. MFA Delete는 추가 보호 계층을 제공합니다. CloudTrail + S3 + Athena 조합으로 규정 준수 팀이 SQL로 감사 로그를 쿼리할 수 있습니다.
Q18. 금융 서비스 회사가 하루에 수백만 건의 트랜잭션을 처리하는 OLTP 데이터베이스를 AWS로 마이그레이션합니다. 99.99% 가용성과 자동 페일오버가 필요합니다. 가장 적합한 선택은?
A) 단일 AZ RDS MySQL B) Amazon Aurora Multi-Master (쓰기 다중화) C) Amazon Aurora Global Database — 리전 내 Multi-AZ, 글로벌 읽기 복제 D) RDS Multi-AZ + 읽기 전용 복제본
정답: C
설명: Aurora Global Database는 하나의 기본 리전(쓰기)과 최대 5개의 보조 리전(읽기)으로 구성됩니다. 리전 내에서는 Multi-AZ로 자동 장애 조치(30초 이내)가 이루어지고, 리전 장애 시 보조 리전으로 1분 이내에 승격됩니다. 99.99% SLA를 충족하고 글로벌 읽기 스케일링을 제공합니다.
Q19. 회사가 레거시 모놀리식 애플리케이션을 마이크로서비스로 점진적으로 전환하려 합니다. 기존 시스템을 유지하면서 새 기능만 마이크로서비스로 추가하는 패턴은?
A) 모놀리식 전체를 한 번에 마이크로서비스로 재작성 B) Strangler Fig 패턴 — API 게이트웨이로 트래픽을 라우팅하여 점진적으로 기능을 이전 C) 데이터베이스를 먼저 마이크로서비스화한 후 애플리케이션을 분리 D) 블루/그린 배포로 모놀리식과 마이크로서비스를 병렬 운영
정답: B
설명: Strangler Fig 패턴은 모놀리식 앞에 API 게이트웨이나 로드 밸런서를 두고, 새 기능은 마이크로서비스로 개발하여 게이트웨이에서 라우팅합니다. 기존 기능은 점진적으로 마이크로서비스로 이전하여 리스크 없이 전환할 수 있습니다.
Q20. IoT 디바이스가 초당 100만 건의 센서 데이터를 전송합니다. 데이터를 실시간으로 처리하고 이상 징후를 감지해야 하며, 원시 데이터는 장기 보관이 필요합니다. 가장 적합한 아키텍처는?
A) 모든 데이터를 RDS에 저장하고 EC2에서 배치 처리 B) Amazon Kinesis Data Streams → Lambda(실시간 이상 감지) + Kinesis Data Firehose → S3(장기 보관) C) SQS로 데이터를 버퍼링하고 EC2 배치로 처리 D) API Gateway → DynamoDB로 저장하고 매일 S3로 내보내기
정답: B
설명: 고처리량 스트리밍 데이터에는 Kinesis 아키텍처가 적합합니다. Kinesis Data Streams는 초당 수백만 건의 레코드를 수집하고, Lambda가 각 레코드를 실시간으로 처리하여 이상 징후를 감지합니다. Kinesis Data Firehose는 S3로 자동 배치하여 장기 보관 및 분석을 지원합니다.
Q21. 회사가 멀티 리전 Active-Active 아키텍처를 구현하여 어느 리전이 실패해도 서비스가 지속되어야 합니다. 데이터베이스 레이어에서 최선의 접근 방법은?
A) 각 리전에 독립적인 RDS Multi-AZ 배포 B) Amazon Aurora Global Database 또는 DynamoDB Global Tables를 사용하여 멀티 리전 데이터 동기화 C) S3 교차 리전 복제로 모든 데이터를 동기화 D) Route 53으로 트래픽을 라우팅하고 데이터는 단일 리전에서만 관리
정답: B
설명: Active-Active 멀티 리전 아키텍처에서 데이터베이스는 Aurora Global Database(관계형) 또는 DynamoDB Global Tables(NoSQL)를 사용합니다. 두 서비스 모두 여러 리전에서 읽기/쓰기를 지원하며, 리전 간 복제 지연 시간이 1초 미만입니다. DynamoDB Global Tables는 Eventual Consistency 모델을 사용합니다.
Q22. 대규모 데이터 웨어하우스 마이그레이션을 위해 테라바이트급 데이터를 온프레미스에서 AWS로 전송해야 합니다. 네트워크 대역폭이 제한적일 때 가장 효율적인 방법은?
A) S3 멀티파트 업로드로 네트워크를 통해 직접 전송 B) AWS Snowball Edge Storage Optimized 어플라이언스를 사용하여 물리적으로 데이터를 전송 C) Direct Connect 연결을 임시로 증설하여 전송 D) 데이터를 압축하여 일반 인터넷으로 전송
정답: B
설명: AWS Snowball Edge는 페타바이트급 데이터를 물리적으로 AWS로 전송하는 서비스입니다. 네트워크 전송보다 훨씬 빠르고(테라바이트 기준 며칠 vs 수개월), 전송 중 데이터는 암호화됩니다. Snowball Edge Storage Optimized는 80TB, Snowball Edge Compute Optimized는 42TB 스토리지를 제공합니다.
Q23. 회사가 자체 온프레미스 PKI 인프라를 AWS로 마이그레이션하려 합니다. AWS Certificate Manager(ACM) 프라이빗 CA와 일반 ACM의 차이점은?
A) ACM 프라이빗 CA는 퍼블릭 인증서를 발급하고, 일반 ACM은 프라이빗 인증서를 발급한다 B) ACM은 퍼블릭 도메인 인증서를 무료로 발급하고, ACM 프라이빗 CA는 내부 도메인용 프라이빗 인증서 발급 계층 구조를 관리한다 C) 두 서비스는 동일하지만 용량 제한이 다르다 D) ACM 프라이빗 CA는 Route 53과만 통합된다
정답: B
설명: ACM은 퍼블릭 CA(Amazon Trust Services)에서 무료로 SSL/TLS 인증서를 발급하여 ELB, CloudFront, API Gateway에 배포합니다. ACM Private CA는 자체 CA 계층 구조를 관리하여 내부 서비스, IoT 디바이스, 온프레미스 서버용 프라이빗 인증서를 발급합니다(시간당 요금 발생).
도메인 3: 마이그레이션 계획
Q24. 회사가 200개의 온프레미스 서버를 AWS로 마이그레이션하려 합니다. 마이그레이션 전에 서버의 종속성, 성능 프로필, 네트워크 연결을 파악하는 가장 적합한 도구는?
A) AWS Cost Calculator로 예상 비용만 계산한다 B) AWS Application Discovery Service를 사용하여 온프레미스 서버의 구성 및 성능 데이터를 수집한다 C) CloudFormation 템플릿을 미리 작성하여 마이그레이션을 계획한다 D) 수동으로 서버 목록을 스프레드시트에 정리한다
정답: B
설명: AWS Application Discovery Service는 에이전트 기반(상세 OS 정보) 또는 에이전트리스(VMware vCenter 통합) 방식으로 온프레미스 서버의 구성, 성능, 네트워크 종속성을 자동으로 수집합니다. 수집된 데이터는 AWS Migration Hub로 전송되어 마이그레이션 계획을 지원합니다.
Q25. 데이터베이스 마이그레이션 중 다운타임을 최소화하기 위해 DMS(Database Migration Service)의 CDC(Change Data Capture)를 사용합니다. CDC의 동작 방식은?
A) 전체 데이터베이스를 주기적으로 스냅샷하여 동기화 B) 소스 DB의 변경 사항(INSERT, UPDATE, DELETE)을 실시간으로 타겟 DB에 반영 C) 소스 DB를 완전히 중단한 후 타겟 DB로 일괄 전송 D) 스토리지 레벨에서 블록 단위로 데이터를 복제
정답: B
설명: CDC는 소스 데이터베이스의 트랜잭션 로그를 읽어 INSERT, UPDATE, DELETE 변경 사항을 실시간으로 타겟 데이터베이스에 적용합니다. 이를 통해 마이그레이션 중에도 소스 DB가 계속 운영되고, 전환(Cutover) 시점에만 최소한의 다운타임이 발생합니다.
Q26. 회사가 VMware 기반 온프레미스 인프라를 최소한의 변경으로 AWS로 이전하려 합니다. VMware 관리 도구와 기술을 그대로 유지해야 합니다. 가장 적합한 서비스는?
A) EC2 인스턴스에 VMware를 직접 설치한다 B) VMware Cloud on AWS를 사용한다 C) AWS Outposts로 VMware 워크로드를 온프레미스에서 실행한다 D) Amazon VirtualBox를 사용한다
정답: B
설명: VMware Cloud on AWS(VMC on AWS)는 VMware SDDC(소프트웨어 정의 데이터센터) 스택을 AWS 전용 베어메탈 서버에서 실행합니다. 기존 VMware 도구(vCenter, vSphere, NSX-T), 프로세스, 기술을 그대로 사용하면서 AWS 서비스와 통합할 수 있습니다. 마이그레이션 7R 중 "Relocate"에 해당합니다.
Q27. 대규모 Oracle 데이터베이스를 AWS로 마이그레이션합니다. Oracle 전용 기능(예: 스토어드 프로시저)을 사용하고 있어 PostgreSQL로 변환이 필요합니다. AWS Schema Conversion Tool(SCT)의 역할은?
A) Oracle 라이선스를 PostgreSQL 라이선스로 자동 전환한다 B) Oracle 데이터베이스 스키마, 뷰, 저장 프로시저, 함수를 PostgreSQL 호환 코드로 변환한다 C) 데이터를 Oracle에서 PostgreSQL로 실시간 복제한다 D) Oracle 쿼리를 PostgreSQL 쿼리로 실시간 번역한다
정답: B
설명: AWS Schema Conversion Tool(SCT)은 소스 데이터베이스 스키마를 분석하고 타겟 데이터베이스에 맞게 변환합니다. Oracle의 스키마, 뷰, 저장 프로시저, 함수를 PostgreSQL(또는 Aurora PostgreSQL) 호환 코드로 변환하고, 자동 변환이 어려운 부분은 수동 변환이 필요한 항목으로 표시합니다. SCT(스키마 변환) + DMS(데이터 마이그레이션)가 일반적인 이기종 마이그레이션 패턴입니다.
Q28. AWS Migration Hub의 주요 기능은?
A) 자동으로 온프레미스 서버를 AWS EC2로 변환한다 B) 여러 AWS 마이그레이션 도구의 진행 상황을 중앙에서 추적한다 C) 마이그레이션 후 비용을 자동으로 최적화한다 D) 마이그레이션 중 네트워크 대역폭을 자동으로 조절한다
정답: B
설명: AWS Migration Hub는 AWS Server Migration Service(SMS), Database Migration Service(DMS), Application Discovery Service 등 다양한 마이그레이션 도구의 진행 상황을 단일 대시보드에서 추적합니다. 개별 애플리케이션 또는 서버 그룹의 마이그레이션 상태를 시각화합니다.
Q29. 7R 마이그레이션 전략 중 "Replatform"의 적절한 예시는?
A) 온프레미스 MySQL을 EC2의 MySQL로 그대로 이전 (Lift-and-Shift) B) 자체 관리 MySQL을 Amazon RDS MySQL로 이전하여 관리 부담을 줄임 C) 레거시 CRM을 Salesforce SaaS로 교체 D) 사용하지 않는 레거시 애플리케이션을 폐기
정답: B
설명: Replatform(Lift-Tinker-and-Shift)은 애플리케이션의 핵심 아키텍처는 유지하면서 클라우드의 관리 혜택을 활용하기 위해 최소한의 변경을 합니다. 자체 관리 MySQL → RDS MySQL은 코드 변경 없이 OS 패치, 백업, 고가용성을 AWS가 관리하는 대표적인 Replatform 사례입니다.
Q30. 회사가 대규모 마이그레이션 프로젝트에서 각 애플리케이션의 마이그레이션 복잡성과 비즈니스 가치를 평가하여 우선순위를 정하려 합니다. 이를 위한 표준 프레임워크는?
A) AWS Well-Architected Framework B) 마이그레이션 포트폴리오 평가 — 기술적 복잡성 vs. 비즈니스 가치 2x2 매트릭스 C) AWS Cost Calculator를 사용한 비용 비교 D) AWS Trusted Advisor 권고사항 목록
정답: B
설명: 마이그레이션 포트폴리오 평가에서는 각 애플리케이션을 기술적 복잡성(낮음/높음)과 비즈니스 가치(낮음/높음) 기준으로 2x2 매트릭스에 배치합니다. 복잡성이 낮고 비즈니스 가치가 높은 애플리케이션(Quick Wins)을 먼저 마이그레이션하고, 복잡성이 높고 가치가 낮은 것은 Retire를 고려합니다.
도메인 4: 비용 관리
Q31. 회사가 장기적으로 안정적인 워크로드에 대해 최대 비용 절감을 원합니다. 3년 예약 인스턴스(Reserved Instances)와 Savings Plans 중 어떤 것이 최대 할인을 제공합니까?
A) Compute Savings Plans가 항상 더 높은 할인을 제공한다 B) 3년 전액 선불 EC2 Standard RI가 특정 인스턴스 유형/리전/OS에 최대 72% 할인을 제공한다 C) On-Demand 인스턴스가 장기적으로 가장 경제적이다 D) 스팟 인스턴스가 항상 가장 낮은 비용이다
정답: B
설명: 최대 할인은 3년 전액 선불 EC2 Standard Reserved Instance로 최대 72% 절감이 가능합니다. Compute Savings Plans는 최대 66%, EC2 Instance Savings Plans는 최대 72%를 제공하지만 유연성이 더 높습니다. 워크로드가 안정적이고 인스턴스 유형 변경이 없다면 Standard RI가 최대 절감을 제공합니다.
Q32. 회사가 개발 환경의 EC2 인스턴스를 업무 시간(평일 오전 9시~오후 6시)에만 실행하여 비용을 절감하려 합니다. 가장 효율적인 방법은?
A) 개발자들에게 수동으로 인스턴스를 시작/중지하도록 지시한다 B) AWS Instance Scheduler 또는 Lambda + EventBridge 규칙으로 인스턴스를 자동 시작/중지한다 C) Auto Scaling 최소 인스턴스 수를 0으로 설정한다 D) 인스턴스를 스팟 인스턴스로 전환한다
정답: B
설명: AWS Instance Scheduler 솔루션 또는 EventBridge(CloudWatch Events) 크론 규칙으로 Lambda를 트리거하여 인스턴스를 자동으로 시작/중지할 수 있습니다. 업무 시간(9시간/일, 5일/주 = 45시간)만 실행하면 전체 168시간 대비 약 73% 비용 절감이 가능합니다.
Q33. 회사가 AWS 비용을 서비스별, 프로젝트별로 정확하게 추적하고 내부 차지백(Chargeback) 보고서를 생성해야 합니다. 가장 포괄적인 데이터 소스는?
A) AWS Cost Explorer의 월별 비용 보고서 B) AWS Cost and Usage Report(CUR)를 S3에 저장하고 Athena 또는 QuickSight로 분석 C) CloudWatch 지표를 통한 서비스 사용량 집계 D) AWS Billing Dashboard의 PDF 청구서
정답: B
설명: AWS Cost and Usage Report(CUR)는 가장 상세한 비용 데이터(리소스 ID 수준, 시간별 사용량, 태그)를 제공합니다. S3에 저장된 CUR을 Athena로 SQL 쿼리하거나 QuickSight 대시보드로 시각화하면 정확한 차지백 보고서를 생성할 수 있습니다.
Q34. 전환 가능 예약 인스턴스(Convertible Reserved Instance)와 표준 예약 인스턴스(Standard Reserved Instance)의 주요 차이점은?
A) 전환 가능 RI는 더 높은 할인을 제공한다 B) 표준 RI는 1년만 약정 가능하고, 전환 가능 RI는 3년만 약정 가능하다 C) 전환 가능 RI는 약정 기간 중 인스턴스 유형, OS, 테넌시를 변경할 수 있지만 할인율이 낮고, 표준 RI는 높은 할인을 제공하지만 변경이 제한적이다 D) 전환 가능 RI는 Reserved Instance Marketplace에서 판매할 수 없다
정답: C
설명: 전환 가능 RI(Convertible RI)는 약정 기간 동안 인스턴스 패밀리, OS, 테넌시를 변경할 수 있는 유연성을 제공하는 대신 표준 RI보다 낮은 할인율(최대 54%)을 제공합니다. 표준 RI는 변경이 제한적이지만 더 높은 할인율(최대 72%)을 제공합니다.
Q35. 회사가 스팟 인스턴스를 사용하여 비용을 절감하면서 중단으로 인한 데이터 손실을 방지하려 합니다. 최선의 아키텍처 패턴은?
A) 단일 스팟 인스턴스로 모든 작업을 실행 B) 체크포인팅 + 스팟 + 온디맨드 혼합 Auto Scaling 그룹으로, Spot Fleet이나 혼합 인스턴스 정책 사용 C) 스팟 인스턴스에 EBS 볼륨을 연결하고 종료 전 자동 스냅샷 D) 스팟 인스턴스를 예약 인스턴스로 교체
정답: B
설명: 중단 내성이 필요한 워크로드에는 온디맨드(최소 기본 용량) + 스팟(비용 절감 추가 용량)을 혼합하는 패턴이 적합합니다. AWS는 스팟 중단 2분 전 알림을 제공하므로 체크포인팅으로 작업 상태를 저장할 수 있습니다. Spot Fleet이나 EC2 Fleet을 사용하여 여러 인스턴스 유형과 가용 영역에 분산시켜 중단 위험을 줄입니다.
Q36. 회사가 여러 AWS 계정에서 RI(Reserved Instance) 할인을 공유하려 합니다. 이를 위한 사전 조건은?
A) 각 계정이 동일한 AWS 리전에 있어야 한다 B) AWS Organizations의 통합 결제와 RI 공유가 활성화되어 있어야 한다 C) 모든 계정이 동일한 VPC에 연결되어 있어야 한다 D) 각 계정에서 별도로 RI를 구매해야 한다
정답: B
설명: AWS Organizations의 통합 결제에서 RI 공유(RI Sharing)가 활성화되면, 조직 내 모든 계정의 EC2 사용량이 합산되어 RI 할인이 자동으로 최적 배분됩니다. 한 계정에서 구매한 RI가 다른 계정의 사용량에도 할인으로 적용될 수 있습니다.
도메인 5: 기존 솔루션의 지속적 개선
Q37. 회사의 애플리케이션이 단일 리전에 배포되어 있으며 DR 전략을 구현해야 합니다. RTO 30분, RPO 15분을 충족하는 가장 비용 효율적인 DR 전략은?
A) Multi-Site Active/Active — 두 리전에서 동시 운영 B) Warm Standby — 다른 리전에 축소된 규모의 운영 환경 유지 C) Backup and Restore — 다른 리전에 백업만 보관 D) Pilot Light — 다른 리전에 핵심 서비스만 최소 실행 상태 유지
정답: D
설명: RTO 30분, RPO 15분은 Pilot Light 전략으로 달성 가능합니다. Pilot Light는 핵심 데이터베이스(예: RDS)를 다른 리전에 복제하고, EC2 인스턴스는 AMI만 준비된 최소 상태로 유지합니다. 장애 시 AMI로 인스턴스를 시작하고 DNS를 전환합니다(30분 이내 가능). Warm Standby는 더 빠른 복구가 가능하지만 비용이 더 높습니다.
Q38. Well-Architected Framework의 "비용 최적화" 필라에서 "소비 모델(Consumption Model)"이 의미하는 바는?
A) 사용한 만큼만 지불하고, 사용하지 않는 리소스는 제거한다 B) 모든 워크로드를 고정 용량으로 프로비저닝한다 C) 가장 비싼 서비스를 사용하여 성능을 최대화한다 D) 모든 데이터를 즉시 접근 가능한 스토리지에 보관한다
정답: A
설명: Well-Architected의 비용 최적화 소비 모델은 실제 사용량에 따라 비용을 지불하고, 사용하지 않는 리소스는 중지/삭제하는 클라우드 네이티브 접근 방식입니다. 온프레미스의 용량 계획(최대 부하에 맞춘 고정 프로비저닝)과 달리, 클라우드에서는 Auto Scaling, Serverless, 스팟 인스턴스 등으로 수요에 맞게 탄력적으로 운영합니다.
Q39. 프로덕션 환경의 웹 애플리케이션이 주기적으로 응답 지연이 발생합니다. Amazon CloudFront와 ElastiCache를 도입하여 성능을 개선하려 할 때 각각 어떤 역할을 합니까?
A) CloudFront는 데이터베이스 쿼리를 캐시하고, ElastiCache는 정적 파일을 캐시한다 B) CloudFront는 전 세계 엣지 로케이션에서 정적/동적 콘텐츠를 캐시하여 오리진 부하를 줄이고, ElastiCache(Redis/Memcached)는 애플리케이션 레이어의 데이터베이스 쿼리 결과를 캐시한다 C) 두 서비스는 동일한 역할을 하며 중복이다 D) CloudFront는 보안 서비스이고, ElastiCache는 로깅 서비스이다
정답: B
설명: CloudFront는 CDN으로 HTML, CSS, JS, 이미지, API 응답 등을 엣지에서 캐시하여 오리진 서버 부하를 줄이고 글로벌 사용자에게 빠른 응답을 제공합니다. ElastiCache(Redis/Memcached)는 애플리케이션 서버와 RDS 사이에서 빈번한 DB 쿼리 결과를 인메모리 캐시하여 DB 부하와 응답 지연을 줄입니다.
Q40. 회사가 AWS Well-Architected Tool을 사용하여 애플리케이션을 검토했습니다. "고위험 문제(HRI, High Risk Issue)"가 식별되었습니다. 이에 대한 가장 적절한 대응은?
A) HRI는 단순 권고사항이므로 무시해도 된다 B) HRI를 즉시 수정하고, 개선 계획을 수립하여 마일스톤별로 진행 상황을 추적한다 C) AWS Support에 연락하여 AWS가 직접 수정하도록 요청한다 D) 현재 아키텍처를 완전히 재설계한다
정답: B
설명: Well-Architected Tool의 HRI는 아키텍처의 심각한 위험을 나타냅니다. HRI를 우선적으로 해결하고, 해결 계획(Improvement Plan)을 마일스톤으로 설정하여 진행 상황을 추적합니다. 모든 HRI를 즉시 수정할 수 없다면 위험 수용(Risk Acceptance) 또는 위험 완화(Risk Mitigation) 계획을 문서화합니다.
Q41. 회사가 VPC 내의 EC2 인스턴스에서 AWS S3, DynamoDB에 접근할 때 인터넷을 경유하지 않으려 합니다. 보안을 강화하면서 비용도 절감하는 방법은?
A) NAT 게이트웨이를 통해 모든 트래픽을 라우팅한다 B) S3와 DynamoDB에 대한 VPC 게이트웨이 엔드포인트를 생성한다 C) 전용 Direct Connect 링크를 S3와 DynamoDB에 구성한다 D) EC2 인스턴스에 퍼블릭 IP를 할당하고 인터넷을 통해 접근한다
정답: B
설명: S3와 DynamoDB에 대한 VPC 게이트웨이 엔드포인트는 무료로 제공되며, 트래픽이 퍼블릭 인터넷이나 NAT 게이트웨이를 경유하지 않고 AWS 내부 네트워크를 통해 전달됩니다. NAT 게이트웨이 데이터 처리 비용(GB당 요금)도 절감됩니다.
Q42. 기존 레거시 모놀리식 애플리케이션의 배포 빈도를 높이고 배포 위험을 줄이기 위해 가장 먼저 도입해야 할 CI/CD 개선 사항은?
A) 전체 애플리케이션을 컨테이너로 마이그레이션 B) 자동화된 테스트(단위, 통합, E2E) 파이프라인을 구축하여 배포 전 품질을 자동 검증 C) 마이크로서비스 아키텍처로 즉시 전환 D) 블루/그린 배포를 위해 프로덕션 인프라를 두 배로 증설
정답: B
설명: CI/CD 개선에서 가장 기본적이고 중요한 것은 자동화된 테스트 파이프라인입니다. 단위 테스트 → 통합 테스트 → E2E 테스트를 자동화하면 배포 전에 버그를 조기 발견하고 수정할 수 있습니다. 이후 블루/그린, 카나리 배포 등 고급 배포 전략을 도입할 수 있습니다.
Q43. 회사의 DynamoDB 테이블이 특정 파티션 키에 트래픽이 집중되어 성능이 저하되고 있습니다("핫 파티션"). 이를 해결하는 가장 효과적인 방법은?
A) DynamoDB 테이블의 프로비저닝 용량을 단순히 늘린다 B) 파티션 키에 랜덤 접미사를 추가하여 데이터를 여러 파티션에 분산시키고, 읽기 시 집계한다 C) DynamoDB Streams를 활성화하여 데이터를 다른 서비스로 이전한다 D) GSI(글로벌 보조 인덱스)를 추가하여 쿼리를 분산한다
정답: B
설명: 핫 파티션(Hot Partition) 문제는 파티션 키 설계 문제입니다. 파티션 키에 랜덤 접미사(예: 1~10 중 하나)를 추가하면 데이터가 여러 파티션에 분산됩니다. 읽기 시에는 모든 접미사로 쿼리하고 결과를 집계(Scatter-Gather 패턴)합니다. DynamoDB DAX(Accelerator)를 추가하면 읽기 성능도 향상됩니다.
Q44. 회사가 AWS WAF를 사용하여 웹 애플리케이션을 SQL 인젝션과 XSS 공격으로부터 보호하려 합니다. WAF 규칙을 처음 도입할 때 프로덕션 트래픽에 영향을 주지 않으면서 테스트하는 가장 좋은 방법은?
A) 즉시 Block 모드로 WAF를 배포한다 B) Count 모드로 WAF 규칙을 먼저 배포하여 트래픽을 차단하지 않고 일치하는 요청만 로깅한다 C) 개발 환경에서만 WAF를 테스트한다 D) AWS Shield Advanced를 먼저 활성화한다
정답: B
설명: WAF 규칙을 처음 도입할 때는 Count 모드로 배포하면 실제 트래픽을 차단하지 않고 어떤 요청이 규칙에 매칭되는지 로깅합니다. CloudWatch Logs를 분석하여 False Positive(정상 트래픽이 잘못 차단되는 경우)를 확인하고, 규칙을 조정한 후 Block 모드로 전환합니다.
Q45. 대규모 S3 버킷에 저장된 수백만 개의 객체 중 최근 30일 이내 접근된 것만 빠른 스토리지에 유지하고 나머지는 자동으로 저렴한 티어로 이동하려 합니다. 어떤 방법이 가장 자동화되고 효율적입니까?
A) S3 수명 주기 정책으로 30일 후 S3-IA로 전환, 90일 후 Glacier로 전환 B) S3 Intelligent-Tiering을 사용하여 액세스 패턴에 따라 자동 계층 이동 C) Lambda를 매일 실행하여 30일 이상 접근 없는 객체를 수동으로 이동 D) CloudFront를 사용하여 자주 접근되는 객체를 캐시
정답: B
설명: S3 Intelligent-Tiering은 액세스 패턴을 자동으로 모니터링하고 30일, 90일, 180일 기준으로 객체를 더 저렴한 계층으로 자동 이동합니다. 검색 비용 없이 계층 간 이동이 이루어집니다. 수명 주기 정책은 고정된 일수 기반이지만 Intelligent-Tiering은 실제 액세스 패턴 기반입니다.
Q46. 회사가 VPC 내 모든 네트워크 트래픽을 중앙 보안 검사 VPC를 통해 라우팅하려 합니다(동-서 트래픽 검사). 가장 적합한 아키텍처는?
A) 각 VPC에 VPN 게이트웨이를 설치하고 직접 연결 B) AWS Transit Gateway + 중앙 검사 VPC(AWS Network Firewall) + Transit Gateway 라우팅 테이블 C) VPC 피어링으로 모든 VPC를 보안 VPC와 연결 D) Security Group으로 모든 동-서 트래픽을 필터링
정답: B
설명: 허브-앤-스포크 보안 아키텍처에서 Transit Gateway가 중앙 허브 역할을 합니다. 보안 VPC에 AWS Network Firewall을 배포하고, Transit Gateway 라우팅 테이블을 사용하여 스포크 VPC 간 트래픽이 반드시 보안 VPC를 경유하도록 설정합니다. 이 패턴으로 중앙 집중식 보안 정책을 적용할 수 있습니다.
Q47. 회사가 Amazon ECS에서 실행 중인 컨테이너 애플리케이션의 메모리 사용량 급증 문제를 진단하려 합니다. 컨테이너 수준의 메모리 지표를 모니터링하는 방법은?
A) EC2 인스턴스의 CloudWatch 기본 메트릭으로 확인한다 B) Container Insights를 활성화하여 ECS 클러스터, 서비스, 태스크, 컨테이너 수준의 지표를 수집한다 C) ECS 태스크 정의에서 메모리 제한을 제거한다 D) AWS X-Ray를 사용하여 메모리 사용량을 추적한다
정답: B
설명: CloudWatch Container Insights는 ECS, EKS, Kubernetes에서 컨테이너 수준의 CPU, 메모리, 디스크, 네트워크 지표를 수집합니다. ECS 클러스터, 서비스, 태스크 정의 수준까지 드릴다운하여 메모리 사용량 패턴을 분석할 수 있습니다.
Q48. 회사가 기존의 온프레미스 레거시 애플리케이션을 AWS로 마이그레이션한 후 성능이 오히려 저하되었습니다. 원인을 파악하기 위해 가장 먼저 확인해야 할 사항은?
A) AWS 리전이 적절히 선택되었는지 확인 B) AWS X-Ray로 애플리케이션 요청 추적, CloudWatch 지표로 리소스 병목, VPC 네트워크 설정 검토 C) 인스턴스 유형을 즉시 업그레이드 D) 데이터베이스를 NoSQL로 마이그레이션
정답: B
설명: 마이그레이션 후 성능 저하는 여러 원인이 있을 수 있습니다. AWS X-Ray로 레이턴시 병목을 추적하고, CloudWatch로 CPU, 메모리, 네트워크 지표를 분석하고, VPC 설정(보안 그룹, 네트워크 ACL, DNS 확인)을 검토합니다. EBS 볼륨 유형(gp2 vs gp3, io1), 인스턴스 유형, RDS 파라미터 그룹도 확인해야 합니다.
Q49. CloudFront 배포에서 특정 URL 패턴에 따라 여러 오리진 서버로 트래픽을 라우팅해야 합니다. (예: /api/* → ELB, /static/* → S3) 어떤 기능을 사용해야 합니까?
A) Route 53 가중치 기반 라우팅 B) CloudFront 캐시 동작(Cache Behaviors)과 여러 오리진 설정 C) Application Load Balancer의 리스너 규칙 D) Lambda@Edge로 요청을 수동 라우팅
정답: B
설명: CloudFront 배포에 여러 오리진을 추가하고, 캐시 동작(Cache Behaviors)에서 URL 경로 패턴별로 다른 오리진으로 라우팅할 수 있습니다. /api/_ 패턴은 ELB 오리진으로, /static/_ 패턴은 S3 오리진으로 라우팅하는 설정이 가능합니다.
Q50. 회사가 Amazon Aurora MySQL 데이터베이스의 읽기 성능을 향상시키려 합니다. 수백 개의 읽기 전용 쿼리가 있고, 각 연결마다 새로운 연결 오버헤드가 문제입니다. 어떤 해결책이 가장 효과적입니까?
A) Aurora Multi-Master로 전환하여 쓰기를 분산한다 B) Aurora 읽기 전용 복제본 + Aurora 클러스터 엔드포인트 + RDS Proxy를 결합한다 C) Aurora를 DynamoDB로 마이그레이션한다 D) EC2에 직접 MySQL을 설치하고 읽기 복제본을 수동 관리한다
정답: B
설명: Aurora 읽기 전용 복제본은 읽기 부하를 분산합니다. Aurora 클러스터 읽기 엔드포인트는 여러 읽기 복제본 간 자동 로드 밸런싱을 제공합니다. RDS Proxy는 수백 개의 연결을 풀링하여 연결 수를 줄이고 오버헤드를 최소화합니다. 세 가지를 결합하면 최대 읽기 성능을 달성할 수 있습니다.
추가 복합 시나리오 문제
Q51. 다국적 기업이 EU GDPR 규정으로 인해 유럽 사용자의 데이터를 EU 리전 외부로 전송할 수 없습니다. 글로벌 애플리케이션에서 데이터 레지던시(Data Residency)를 보장하는 방법은?
A) 단일 글로벌 S3 버킷에 모든 데이터를 저장하고 IAM으로 접근 제한 B) AWS Organizations SCP로 EU 사용자 데이터가 EU 리전 외부에 저장되는 것을 방지하고, CloudFront와 Route 53으로 지역 라우팅 C) 모든 데이터를 온프레미스에 보관하고 AWS는 컴퓨팅만 사용 D) CloudFront에서 지리 제한(Geo Restriction)만 설정
정답: B
설명: 데이터 레지던시 요구사항은 다층 접근이 필요합니다. SCP로 EU 리전 외부에서의 데이터 생성을 방지하고, Route 53 지리적 라우팅으로 EU 사용자를 EU 리전으로 라우팅하며, S3 버킷 정책으로 특정 리전에서만 데이터를 허용합니다. DynamoDB Global Tables의 경우 특정 리전만 활성화합니다.
Q52. 회사가 기존 온프레미스 Hadoop 클러스터를 AWS로 마이그레이션합니다. 비용 최적화가 중요하며 클러스터를 24시간 운영할 필요는 없습니다. 가장 비용 효율적인 방법은?
A) EC2에 Hadoop을 설치하고 항상 운영 B) Amazon EMR을 사용하여 필요할 때만 트랜지언트 클러스터를 시작하고 결과를 S3에 저장 C) AWS Glue를 사용하여 모든 Hadoop 작업을 ETL로 변환 D) Amazon Redshift로 마이그레이션하여 쿼리 성능을 향상
정답: B
설명: EMR 트랜지언트(Transient) 클러스터는 작업 실행 시에만 클러스터를 시작하고 완료 후 자동 종료합니다. 데이터는 HDFS 대신 S3에 저장(EMR FS)하여 클러스터 종료 후에도 유지됩니다. 스팟 인스턴스를 워커 노드에 사용하면 비용을 70-90% 절감할 수 있습니다.
Q53. 회사가 API Gateway + Lambda 서버리스 아키텍처를 운영 중입니다. 특정 API 엔드포인트에 DDoS 공격이 발생하여 Lambda 비용이 급증하고 있습니다. 어떻게 방어합니까?
A) Lambda 함수의 메모리를 줄여 비용을 절감한다 B) AWS WAF를 API Gateway에 연결하고, API Gateway 사용 계획(Usage Plan)으로 요청 속도 제한을 설정한다 C) CloudFront를 제거하고 API Gateway를 직접 노출한다 D) Lambda 동시 실행 제한을 0으로 설정한다
정답: B
설명: API Gateway에 AWS WAF를 연결하면 SQL 인젝션, XSS, IP 차단 등의 규칙을 적용할 수 있습니다. API Gateway 사용 계획(Usage Plan)의 스로틀링 설정(RPS, 버스트 제한)으로 초과 요청을 차단합니다. AWS Shield Advanced를 추가하면 고급 DDoS 보호와 비용 보호를 받을 수 있습니다.
Q54. 다중 계정 환경에서 보안 팀이 모든 계정의 CloudTrail 로그를 중앙에서 분석해야 합니다. 가장 적합한 아키텍처는?
A) 각 계정에서 독립적으로 CloudTrail 로그를 분석한다 B) 모든 계정의 CloudTrail 로그를 중앙 보안 계정의 S3 버킷으로 집계하고, Athena로 쿼리하거나 SIEM으로 전송한다 C) Security Hub가 자동으로 모든 CloudTrail 로그를 통합 분석한다 D) 각 계정에 보안 팀 IAM 역할을 생성하여 직접 접근한다
정답: B
설명: 다중 계정 CloudTrail 통합은 Organizations CloudTrail을 사용하여 조직의 모든 계정에서 관리 이벤트를 자동 수집하고, 중앙 보안 계정의 S3 버킷으로 전달하는 것이 표준 패턴입니다. 중앙 S3 버킷에 Athena를 연결하거나, CloudWatch Logs, Splunk, Elastic 등의 SIEM으로 전송하여 보안 분석을 수행합니다.
Q55. 회사가 AWS에서 핵심 인프라를 운영하면서 AWS 서비스 장애로 인한 비즈니스 영향을 최소화하기 위해 AWS Enterprise Support와 계약을 맺었습니다. Enterprise Support의 핵심 혜택은?
A) AWS 서비스를 무료로 사용할 수 있다 B) Technical Account Manager(TAM), 비즈니스 크리티컬 장애에 15분 응답 시간(SLA), Well-Architected 검토 지원 C) 모든 AWS 서비스에 무제한 사용 보장 D) 프로덕션 환경의 자동 장애 복구
정답: B
설명: AWS Enterprise Support의 핵심 혜택은 전담 Technical Account Manager(TAM), 비즈니스/미션 크리티컬 장애에 15분 이내 응답(전화 지원), 연간 Well-Architected 프레임워크 검토, Trusted Advisor 전체 항목 확인, 운영 리뷰 등입니다.
Q56. 글로벌 콘텐츠 배포 플랫폼이 특정 국가에서 콘텐츠를 제한해야 합니다(저작권, 규제 등). 어떤 방법이 가장 적합합니까?
A) Route 53 지리 근접성 라우팅으로 특정 국가 트래픽을 차단 B) CloudFront 지리 제한(Geo Restriction)으로 특정 국가에서의 접근을 차단 또는 허용 C) WAF IP 차단 목록으로 특정 국가의 IP를 모두 차단 D) 애플리케이션 레이어에서 사용자의 IP를 확인하고 리다이렉트
정답: B
설명: CloudFront 지리 제한(Geo Restriction 또는 Geo Blocking)은 국가 코드 기준으로 특정 국가의 접근을 차단(Blocklist) 또는 허용(Allowlist)합니다. CloudFront 엣지에서 처리되므로 오리진 서버에 도달하기 전에 차단됩니다. 차단된 사용자에게 403 Forbidden 또는 사용자 정의 오류 페이지를 반환합니다.
Q57. Amazon EKS 클러스터에서 파드(Pod)가 AWS 서비스(S3, DynamoDB)에 접근해야 합니다. EC2 노드의 IAM 역할을 사용하지 않고 파드 수준에서 최소 권한을 적용하는 방법은?
A) 클러스터의 모든 노드에 동일한 IAM 역할을 할당한다 B) IRSA(IAM Roles for Service Accounts)를 사용하여 Kubernetes 서비스 어카운트에 IAM 역할을 연결한다 C) 파드 내에서 AWS CLI configure로 자격 증명을 하드코딩한다 D) AWS Secrets Manager에 자격 증명을 저장하고 파드가 직접 가져온다
정답: B
설명: IRSA(IAM Roles for Service Accounts)는 Kubernetes 서비스 어카운트에 IAM 역할을 연결하여 해당 서비스 어카운트를 사용하는 파드만 지정된 AWS 서비스에 접근할 수 있게 합니다. 노드 수준의 IAM 역할 대신 파드 수준의 최소 권한을 구현하는 EKS 표준 패턴입니다.
Q58. 온라인 쇼핑몰이 블랙 프라이데이 이벤트를 앞두고 있습니다. 급격한 트래픽 증가에 대비하여 데이터베이스 스케일링 전략을 수립해야 합니다. 어떤 접근 방식이 가장 적합합니까?
A) 이벤트 전에 RDS 인스턴스 크기를 최대로 업그레이드하고 이벤트 후 다운그레이드 B) ElastiCache(Redis)로 자주 조회되는 상품/카테고리 데이터를 캐시하고, Aurora 읽기 복제본을 미리 추가하고, Aurora Serverless v2로 피크 시 자동 확장 C) 모든 DB 쿼리를 저장 프로시저로 최적화 D) 이벤트 기간에만 직접 온프레미스 DB와 연결
정답: B
설명: 예측 가능한 트래픽 급증(블랙 프라이데이)에 대비하는 다계층 전략입니다. ElastiCache로 읽기 부하의 80-90%를 캐시하고, Aurora 읽기 복제본을 미리 추가하여 DB 읽기를 분산합니다. Aurora Serverless v2는 피크 시 자동으로 ACU(Aurora Capacity Units)를 증가시킵니다. 이벤트 전 부하 테스트(Load Testing)도 필수입니다.
Q59. 회사의 AWS 환경에서 보안 침해가 의심됩니다. 침해된 IAM 자격 증명을 즉시 비활성화하고 영향을 받은 리소스를 확인하는 절차는?
A) 전체 AWS 계정을 즉시 삭제한다 B) 의심스러운 IAM 자격 증명을 비활성화하고, CloudTrail과 GuardDuty 알림으로 최근 활동을 조사하고, VPC Flow Logs로 비정상적인 네트워크 활동을 확인한다 C) AWS Support에 연락하여 조사를 위임한다 D) 모든 EC2 인스턴스를 즉시 종료한다
정답: B
설명: 보안 침해 대응 절차: 1) 의심스러운 IAM 사용자/역할/키를 즉시 비활성화, 2) CloudTrail에서 해당 자격 증명의 최근 API 호출 분석, 3) GuardDuty 알림으로 위협 범위 파악, 4) VPC Flow Logs로 비정상적인 트래픽 확인, 5) 영향 받은 리소스 격리, 6) 루트 원인 분석 및 재발 방지 조치를 순서로 수행합니다.
Q60. 회사가 AWS에서 규제 준수 감사를 받아야 합니다. 감사자에게 특정 리소스의 구성 변경 이력을 제공해야 합니다. 어떤 서비스가 이 요구사항을 충족합니까?
A) CloudWatch 대시보드를 감사자에게 공유한다 B) AWS Config는 모든 리소스의 구성 변경 이력을 타임라인으로 기록하고, 특정 시점의 구성 스냅샷을 제공한다 C) CloudTrail 로그를 CSV로 내보내 감사자에게 제공한다 D) Systems Manager Inventory로 현재 구성 상태를 캡처한다
정답: B
설명: AWS Config는 지원되는 AWS 리소스의 구성 변경을 지속적으로 기록합니다. Config 타임라인에서 리소스가 어떤 구성에서 어떤 구성으로 언제 변경되었는지 전체 이력을 제공합니다. 특정 시점의 구성 스냅샷도 조회 가능합니다. 규정 준수 감사의 핵심 서비스입니다.
Q61. 회사가 Amazon Kinesis Data Streams와 Lambda를 사용하는 실시간 데이터 처리 파이프라인을 운영합니다. Lambda가 Kinesis 레코드 처리에 실패할 때 재시도 동작을 어떻게 제어합니까?
A) SQS Dead Letter Queue로 실패한 메시지를 전송한다 B) Kinesis 스트림 자체의 재시도 설정을 변경한다 C) Lambda 이벤트 소스 매핑(Event Source Mapping)에서 재시도 횟수, 이등분 재시도(bisect on error), 오류 시 목적지(Destination on Failure)를 설정한다 D) Lambda 함수 내에서 예외를 catch하고 수동으로 재처리한다
정답: C
설명: Lambda의 Kinesis 이벤트 소스 매핑에서 재시도 동작을 세밀하게 제어합니다. 재시도 횟수, 최대 레코드 만료 기간, 오류 시 배치를 이등분(bisect on function error)하여 실패한 레코드를 좁히는 기능, 그리고 처리 실패한 레코드를 SQS나 SNS로 보내는 오류 목적지(Destination)를 설정할 수 있습니다.
Q62. 전 세계에 배포된 Amazon DynamoDB Global Tables를 사용하는 애플리케이션에서 두 리전이 동시에 동일한 아이템을 업데이트할 경우(충돌) 어떻게 처리됩니까?
A) 두 업데이트 중 하나가 자동으로 롤백된다 B) DynamoDB는 Last Writer Wins(최종 쓰기 우선) 방식으로 충돌을 해결한다 C) 애플리케이션이 충돌을 감지하고 수동으로 병합해야 한다 D) 충돌이 발생하면 해당 아이템이 잠금 상태가 되어 읽기 전용이 된다
정답: B
설명: DynamoDB Global Tables는 각 리전에서의 업데이트를 타임스탬프와 함께 복제합니다. 동시 업데이트 충돌 시 "Last Writer Wins" — 즉 가장 최신 타임스탬프의 업데이트가 모든 리전에 전파됩니다. 이는 Eventual Consistency 모델입니다. 비즈니스 로직에서 충돌을 방지하거나 단일 리전에서 쓰기 작업을 수행하도록 설계해야 합니다.
Q63. 회사가 마이크로서비스 아키텍처에서 서비스 간 API 의존성을 관리하고, API 버전 관리 및 트래픽 제어를 중앙에서 처리하려 합니다. 어떤 AWS 서비스가 가장 적합합니까?
A) Application Load Balancer B) Amazon API Gateway + AWS PrivateLink C) AWS Service Mesh(App Mesh) + Amazon API Gateway D) Transit Gateway
정답: C
설명: AWS App Mesh는 마이크로서비스 간의 통신을 제어하는 서비스 메쉬로, Envoy 프록시를 통해 트래픽 라우팅, 재시도, 회로 차단, 관찰성을 제공합니다. API Gateway는 외부 클라이언트에게 단일 진입점을 제공하고 버전 관리, 스로틀링, 인증을 처리합니다. 두 서비스를 결합하면 내부 서비스 통신(App Mesh) + 외부 API 관리(API Gateway)가 완성됩니다.
Q64. 회사가 AWS 환경에서 소프트웨어 공급망 보안을 강화하려 합니다. CI/CD 파이프라인에서 사용되는 컨테이너 이미지의 취약점을 자동으로 스캔하는 방법은?
A) 프로덕션 배포 후 취약점을 수동으로 확인한다 B) Amazon ECR의 이미지 스캔(기본 스캔 또는 향상된 스캔)을 활성화하고, CodePipeline에서 스캔 결과를 확인하여 취약점이 있으면 배포를 중지한다 C) 오픈소스 Trivy를 EC2에 설치하여 수동 스캔한다 D) Docker Hub의 공식 이미지만 사용한다
정답: B
설명: Amazon ECR는 이미지 푸시 시 또는 주기적으로 자동 취약점 스캔을 제공합니다. 기본 스캔(CVE 데이터베이스 기반)과 향상된 스캔(Amazon Inspector 기반, 더 세밀한 CVE 탐지)을 선택할 수 있습니다. CodePipeline에서 ECR 스캔 결과를 확인하는 단계를 추가하여 HIGH/CRITICAL 취약점이 있는 이미지의 배포를 자동으로 차단합니다.
Q65. 회사가 AWS Direct Connect를 통해 온프레미스와 연결되어 있습니다. Direct Connect 장애에 대비한 백업 연결 전략은?
A) Direct Connect를 두 회선으로 이중화하는 것으로 충분하다 B) Direct Connect 이중화(두 개의 전용 회선 또는 파트너 연결) + Site-to-Site VPN 백업을 BGP 우선 경로로 설정 C) VPN만으로 백업하면 Direct Connect와 동일한 성능을 보장할 수 있다 D) 모든 데이터를 S3에 복제하여 Direct Connect 없이도 접근할 수 있게 한다
정답: B
설명: Direct Connect 고가용성을 위한 표준 패턴은 두 개의 물리적 회선(Direct Connect 이중화) + VPN 백업입니다. BGP 경로 우선순위(Local Preference, AS-PATH)를 설정하여 Direct Connect가 기본 경로로, VPN이 백업으로 동작하도록 구성합니다. Direct Connect 완전 이중화를 위해서는 두 다른 Direct Connect 로케이션을 사용해야 합니다.
Q66. 회사가 S3 버킷에 저장된 데이터가 특정 AWS 리전을 벗어나지 않도록 보장해야 합니다. 가장 효과적인 방법은?
A) S3 교차 리전 복제를 비활성화한다 B) S3 버킷 정책에 aws:RequestedRegion 조건을 사용하여 특정 리전에서의 요청만 허용하고, SCP로 다른 리전에 S3 버킷 생성을 방지한다 C) S3 버킷에 대한 CloudFront 배포를 비활성화한다 D) S3 ACL로 퍼블릭 접근을 차단한다
정답: B
설명: 데이터 레지던시 보장을 위해 S3 버킷 정책에서 aws:RequestedRegion 조건으로 특정 리전에서만 접근을 허용하고, AWS Organizations SCP로 허용된 리전 외에 S3 버킷이 생성되지 않도록 제한합니다. S3 버킷은 생성 시 리전이 고정되므로 SCP로 리전을 제한하면 데이터가 의도된 리전에만 저장됩니다.
Q67. 회사가 여러 AWS 계정에서 공유 서비스(DNS, 디렉터리 서비스, CI/CD 도구)를 중앙화하려 합니다. 이를 위한 표준 AWS Landing Zone 아키텍처 패턴은?
A) 모든 서비스를 단일 계정에 배포한다 B) 전용 공유 서비스 계정을 OU에 생성하고, RAM(Resource Access Manager)이나 Direct Connect를 통해 다른 계정과 공유한다 C) 각 계정에 동일한 서비스를 복제 배포한다 D) 관리 계정에서 모든 공유 서비스를 운영한다
정답: B
설명: AWS Landing Zone 아키텍처에서 전용 "공유 서비스(Shared Services)" 계정을 분리합니다. Route 53 Resolver, AWS Directory Service, ECR, VPC Endpoint 등 공통 서비스를 이 계정에 배포하고, Transit Gateway 또는 RAM(Resource Access Manager)을 통해 다른 계정의 VPC와 공유합니다. 관리 계정은 결제와 Organizations 관리에만 사용하는 것이 모범 사례입니다.
Q68. 마이그레이션 후 회사의 AWS 월 청구서가 예상보다 높습니다. AWS Compute Optimizer를 사용하여 무엇을 개선할 수 있습니까?
A) 네트워크 대역폭 비용을 줄인다 B) EC2 인스턴스, Lambda 함수, EBS 볼륨, ECS 서비스에 대해 현재 사용 패턴 기반 최적 인스턴스 유형과 크기를 추천한다 C) S3 스토리지 비용을 자동으로 최적화한다 D) 예약 인스턴스와 Savings Plans를 자동 구매한다
정답: B
설명: AWS Compute Optimizer는 머신 러닝을 사용하여 EC2 인스턴스, Auto Scaling 그룹, EBS 볼륨, Lambda 함수, ECS 서비스의 실제 사용량 지표를 분석하고 과프로비저닝 또는 저프로비저닝된 리소스를 식별합니다. 비용과 성능을 균형 있게 최적화하는 인스턴스 유형/크기 변경 권고를 제공합니다.
Q69. 회사가 Amazon S3를 정적 웹사이트 호스팅에 사용하면서 HTTPS를 적용하고 커스텀 도메인을 연결하려 합니다. 어떤 아키텍처가 필요합니까?
A) S3 버킷에 SSL 인증서를 직접 설치한다 B) CloudFront 배포(ACM 인증서 + 사용자 정의 도메인) + S3 오리진 + Route 53 별칭 레코드 C) EC2 인스턴스에 Nginx를 설치하고 리버스 프록시로 S3에 연결한다 D) API Gateway를 S3 앞에 배치하여 HTTPS를 제공한다
정답: B
설명: S3 자체는 HTTPS를 직접 지원하지 않으므로 CloudFront를 앞에 배치합니다. ACM(AWS Certificate Manager)에서 무료 SSL/TLS 인증서를 발급하여 CloudFront에 연결하고, Route 53에서 사용자 정의 도메인을 CloudFront 배포의 별칭(Alias) 레코드로 설정합니다.
Q70. 회사가 AWS에서 실행 중인 여러 마이크로서비스의 분산 트레이싱을 구현하려 합니다. 각 요청의 전체 흐름을 시각화하고 성능 병목을 찾아야 합니다. 어떤 서비스를 사용합니까?
A) CloudWatch Logs Insights B) AWS X-Ray C) VPC Flow Logs D) CloudTrail
정답: B
설명: AWS X-Ray는 분산 애플리케이션의 요청 추적을 위한 서비스입니다. 각 요청에 대한 서비스 맵(Service Map)을 생성하여 마이크로서비스 간의 호출 흐름을 시각화하고, 레이턴시, 오류, 스로틀링을 분석합니다. Lambda, EC2, ECS, API Gateway, DynamoDB, SNS, SQS와 통합됩니다.
Q71. 데이터 과학 팀이 대규모 머신 러닝 훈련 작업을 위해 GPU 인스턴스가 필요합니다. 훈련은 간헐적이며 비용 최적화가 중요합니다. 최선의 접근은?
A) 항상 운영 중인 GPU 예약 인스턴스를 구매한다 B) Amazon SageMaker의 관리형 훈련 작업(Managed Training Jobs)을 사용하여 필요할 때만 스팟 GPU 인스턴스로 훈련하고, 체크포인트를 S3에 저장한다 C) 온프레미스 GPU 서버를 유지하고 AWS와 하이브리드로 운영한다 D) CPU 인스턴스로 훈련하여 GPU 비용을 회피한다
정답: B
설명: SageMaker 관리형 훈련은 훈련 중에만 인스턴스를 시작하고 완료 후 자동 종료합니다. SageMaker Managed Spot Training을 사용하면 스팟 인스턴스 가격으로 GPU 인스턴스를 사용하고(최대 90% 할인), 스팟 중단 시 체크포인트를 S3에서 자동 복구합니다. 훈련 완료 후 인스턴스가 자동 종료되어 유휴 비용이 없습니다.
Q72. 회사의 레거시 애플리케이션이 공유 파일 시스템(NFS)을 사용하여 여러 EC2 인스턴스 간에 파일을 공유합니다. AWS에서 이 패턴을 유지하려 합니다. 가장 적합한 스토리지 서비스는?
A) Amazon EBS — 여러 인스턴스에 마운트하여 공유 B) Amazon EFS — 여러 EC2 인스턴스에서 동시에 마운트 가능한 완전 관리형 NFS C) Amazon S3 — POSIX 파일 시스템 인터페이스 제공 D) AWS FSx for Windows — 리눅스 EC2에 마운트
정답: B
설명: Amazon EFS(Elastic File System)는 NFSv4 프로토콜을 사용하는 완전 관리형 공유 파일 시스템입니다. 여러 EC2 인스턴스, 컨테이너, Lambda 함수에서 동시에 마운트하여 공유 파일 접근이 가능합니다. EBS는 단일 인스턴스에 연결(Multi-Attach는 제한적), S3는 파일 시스템 인터페이스가 아닙니다.
Q73. 회사가 AWS에서 HIPAA(의료 정보 보호) 규정 준수를 달성해야 합니다. HIPAA 적용 가능한 AWS 서비스 사용 시 필수 요구 사항은?
A) 별도의 AWS GovCloud 계정만 사용해야 한다 B) AWS와 BAA(Business Associate Agreement)를 체결하고, HIPAA 적합 서비스를 사용하며 PHI 데이터를 암호화한다 C) 모든 데이터를 CloudHSM에만 저장해야 한다 D) AWS는 HIPAA를 지원하지 않으므로 온프레미스만 사용해야 한다
정답: B
설명: AWS에서 HIPAA를 달성하려면 AWS와 Business Associate Agreement(BAA)를 체결해야 합니다. HIPAA 적합(Eligible) 서비스(EC2, S3, RDS, Lambda 등 다수)만 PHI(Protected Health Information) 처리에 사용하고, 저장 및 전송 중 데이터를 암호화하고, 접근 제어, 감사 로그, 사고 대응 절차를 구현해야 합니다.
Q74. 글로벌 SaaS 회사가 각 고객의 데이터를 완벽하게 격리해야 합니다(테넌트 격리). 가장 강력한 격리 모델은?
A) 단일 RDS 데이터베이스에 고객 ID 컬럼으로 격리 B) 각 테넌트마다 별도의 AWS 계정을 프로비저닝하여 계정 수준 격리 C) VPC 내 보안 그룹으로 테넌트를 격리 D) DynamoDB 테이블에 파티션 키로 고객 ID를 사용하여 격리
정답: B
설명: 가장 강력한 테넌트 격리 모델은 테넌트당 별도 AWS 계정(Account-per-Tenant)입니다. 계정 경계는 네트워크, IAM, 리소스, 청구 모두에서 완전한 격리를 제공합니다. AWS Organizations로 테넌트 계정을 관리하고 Account Factory로 자동 프로비저닝합니다. 다만 비용이 높고 관리 복잡성이 증가합니다. 더 가벼운 격리가 필요한 경우 VPC per tenant 또는 namespace per tenant를 고려합니다.
Q75. 회사가 AWS Well-Architected Framework의 6번째 필라인 "지속 가능성(Sustainability)"을 적용하려 합니다. 클라우드 워크로드의 탄소 발자국을 줄이기 위한 가장 직접적인 방법은?
A) 더 많은 EC2 인스턴스를 사용하여 처리 속도를 높인다 B) 불필요한 리소스를 제거하고, Graviton(ARM) 프로세서 기반 인스턴스를 사용하며, 서버리스와 컨테이너로 리소스 활용률을 높인다 C) 데이터를 여러 리전에 복제하여 지속 가능성을 높인다 D) 24시간 모든 인스턴스를 실행하여 Cold Start를 방지한다
정답: B
설명: AWS 지속 가능성 필라의 핵심은 리소스 효율화입니다. AWS Graviton 인스턴스는 x86 대비 동일 성능에 약 60% 적은 에너지를 사용합니다. 서버리스(Lambda, Fargate)와 컨테이너는 유휴 리소스를 제거하여 활용률을 높입니다. 불필요한 데이터 전송 최소화, 올바른 스토리지 티어 선택도 탄소 발자국 감소에 기여합니다.
정답 요약
| 번호 | 정답 | 번호 | 정답 | 번호 | 정답 | 번호 | 정답 | 번호 | 정답 |
|---|---|---|---|---|---|---|---|---|---|
| Q1 | B | Q16 | B | Q31 | B | Q46 | B | Q61 | C |
| Q2 | B | Q17 | B | Q32 | B | Q47 | B | Q62 | B |
| Q3 | B | Q18 | C | Q33 | B | Q48 | B | Q63 | C |
| Q4 | B | Q19 | B | Q34 | C | Q49 | B | Q64 | B |
| Q5 | B | Q20 | B | Q35 | B | Q50 | B | Q65 | B |
| Q6 | C | Q21 | B | Q36 | B | Q51 | B | Q66 | B |
| Q7 | B | Q22 | B | Q37 | D | Q52 | B | Q67 | B |
| Q8 | B | Q23 | B | Q38 | A | Q53 | B | Q68 | B |
| Q9 | B | Q24 | B | Q39 | B | Q54 | B | Q69 | B |
| Q10 | B | Q25 | B | Q40 | B | Q55 | B | Q70 | B |
| Q11 | B | Q26 | B | Q41 | B | Q56 | B | Q71 | B |
| Q12 | B | Q27 | B | Q42 | B | Q57 | B | Q72 | B |
| Q13 | B | Q28 | B | Q43 | B | Q58 | B | Q73 | B |
| Q14 | B | Q29 | B | Q44 | B | Q59 | B | Q74 | B |
| Q15 | B | Q30 | B | Q45 | B | Q60 | B | Q75 | B |
SAP-C02 시험 준비 전략
- 아키텍처 트레이드오프 이해: Professional 시험은 단순 지식이 아닌 여러 옵션의 장단점을 비교하는 능력을 평가합니다
- 멀티 계정 전략 마스터: Organizations, Control Tower, IAM Identity Center는 SAP의 핵심입니다
- 마이그레이션 7R 실습: 실제 시나리오에서 어떤 R 전략이 가장 적합한지 판단하는 연습을 합니다
- 비용 최적화 심화: RI vs Savings Plans, 스팟 아키텍처 패턴을 깊이 이해합니다
- AWS 공식 Whitepaper 필독: 마이그레이션, 멀티 계정, DR 관련 공식 Whitepaper를 반드시 읽으세요
- 실제 아키텍처 설계 연습: AWS Well-Architected Labs의 시나리오를 직접 설계해보세요
AWS Solutions Architect Professional (SAP-C02) Practice Exam: 75 Questions
AWS Solutions Architect Professional (SAP-C02) Practice Exam: 75 Questions
This practice exam covers the advanced topics of the AWS SAP-C02 exam including organizational design, multi-account strategies, hybrid connectivity, cost optimization, and complex architectural patterns.
Question 1
A company has 200 AWS accounts and wants to implement a centralized logging strategy. All CloudTrail logs should be consolidated in a dedicated logging account and be tamper-proof. Which architecture achieves this?
A) Enable CloudTrail in each account and export to S3 in each account B) Use CloudTrail organization trail with logs delivered to an S3 bucket in a dedicated logging account with S3 Object Lock C) Use CloudWatch Logs Cross-Account Observability D) Use AWS Config aggregator in the logging account
Answer
Answer: B
Explanation: An AWS Organizations CloudTrail organization trail automatically enables CloudTrail in all accounts and delivers all events to a single S3 bucket in the management/logging account. Combining this with S3 Object Lock in compliance mode makes the logs tamper-proof (cannot be deleted or modified). Cross-Account CloudWatch Observability (C) is for metrics/logs, not specifically CloudTrail. Config aggregator (D) is for resource configuration data.
Question 2
A financial company needs to migrate on-premises workloads to AWS. They have strict compliance requirements that certain data must never leave a specific AWS Region. How should they enforce this?
A) Use IAM policies with resource-based conditions B) Implement Service Control Policies (SCPs) denying actions outside specific regions C) Use VPC endpoint policies D) Configure CloudTrail to alert on cross-region activity
Answer
Answer: B
Explanation: SCPs in AWS Organizations can deny all actions in all regions except the allowed regions using the aws:RequestedRegion condition key. This provides a preventive guardrail that even account administrators cannot bypass. IAM policies (A) must be applied per user/role and can be overridden by account admins. VPC endpoint policies (C) restrict VPC traffic. CloudTrail alerting (D) is detective, not preventive.
Question 3
A company runs a global application across 3 AWS regions. They need a global database that provides low-latency reads in each region and handles failover automatically. The application is read-heavy (90% reads). What should they use?
A) Amazon RDS Multi-AZ with cross-region read replicas B) Amazon Aurora Global Database C) Amazon DynamoDB Global Tables D) Amazon ElastiCache Global Datastore
Answer
Answer: B
Explanation: Amazon Aurora Global Database provides a single Aurora database spanning multiple regions with sub-second read replication lag and automatic failover in under 1 minute. It's designed for this exact use case - global reads with high availability. Aurora Global Database is specifically for relational workloads. DynamoDB Global Tables (C) is for NoSQL workloads. ElastiCache Global Datastore (D) is for caching, not primary database storage.
Question 4
A company uses AWS Organizations with 50 accounts. They need to ensure all accounts use only approved EC2 instance types to control costs. How should they implement this with minimal operational overhead?
A) Create IAM policies in each account restricting instance types B) Use an SCP that denies launching non-approved instance types C) Use AWS Budgets with instance type filters D) Use AWS Config rules in each account
Answer
Answer: B
Explanation: An SCP can deny ec2:RunInstances when the instance type is not in the approved list using the ec2:InstanceType condition. This applies to all accounts in the OU/Organization with a single policy, requiring no per-account configuration. IAM policies (A) must be managed in each account. AWS Budgets (C) monitors costs but doesn't prevent launches. Config rules (D) are detective, not preventive, and require management in each account.
Question 5
A company needs to migrate a large Oracle database to AWS. The source database is 10 TB and they have a 1 Gbps Direct Connect connection. The migration must complete in 5 days with minimal downtime. What strategy should they use?
A) Use AWS Snowball Edge to transfer data, then AWS DMS for ongoing replication B) Use AWS DMS full-load migration over Direct Connect C) Use pg_dump/pg_restore over Direct Connect D) Use AWS DataSync to migrate Oracle data
Answer
Answer: A
Explanation: For 10 TB over 1 Gbps, transfer would take about 22 hours - feasible but risky. Using Snowball Edge for the initial bulk data transfer followed by AWS DMS CDC (Change Data Capture) for ongoing replication is the safest approach. The Snowball transfers the bulk data, then DMS syncs changes. When changes are caught up, the cutover is minimal. DMS full-load over Direct Connect (B) is possible but riskier. pg_dump (C) is for PostgreSQL, not Oracle. DataSync (D) is for file transfers.
Question 6
A company has a hub-and-spoke network with a Transit Gateway. They need to prevent spoke VPCs from communicating directly with each other, only allowing communication through the hub (inspection VPC). How should they configure this?
A) Use Transit Gateway route tables with separate route tables for each spoke B) Use VPC peering between hub and spoke VPCs C) Create Transit Gateway with separate route tables per domain and use the inspection VPC as a hub with security appliances D) Use AWS PrivateLink for all inter-VPC communication
Answer
Answer: C
Explanation: This is the segmentation architecture for Transit Gateway. Create separate route tables: one for spokes (pointing default route to inspection VPC attachment) and one for the hub/inspection VPC (with routes back to all spokes). This forces all spoke-to-spoke traffic through the inspection VPC where security appliances (NGFW, IDS/IPS) are deployed. VPC peering (B) doesn't allow transit routing. PrivateLink (D) is for service connectivity.
Question 7
A media company needs to process video uploads. Videos vary in size from 100 MB to 50 GB. Processing time varies from 5 minutes to 8 hours. They need a cost-effective, scalable architecture. What should they use?
A) AWS Lambda for all video processing B) AWS Batch with EC2 Spot Instances for processing jobs, triggered by SQS C) EC2 Auto Scaling Group with On-Demand instances D) AWS Fargate tasks triggered by S3 events
Answer
Answer: B
Explanation: AWS Batch is designed for long-running compute jobs. Using Spot Instances reduces cost by up to 90%. SQS decouples the upload trigger from processing. Batch automatically manages the compute infrastructure. Lambda (A) has a 15-minute timeout limit - unsuitable for 8-hour jobs. EC2 Auto Scaling (C) with On-Demand is more expensive. Fargate (D) is good but doesn't provide the same cost optimization as Batch with Spot.
Question 8
A company is implementing a multi-account strategy. They want to separate billing, security, logging, and workloads into dedicated accounts. What is the recommended AWS Organizations structure?
A) All accounts in a single flat OU under the management account B) Management account > Security OU (security tooling, logging) + Workloads OU (dev, staging, prod) with separate SCPs C) Separate Organizations for each department D) A single account with resource tagging for separation
Answer
Answer: B
Explanation: The AWS recommended Landing Zone structure uses: Management Account (for billing and org management only), Security OU (containing security tooling account and logging account), and Workloads OU (containing dev/staging/prod accounts). Each OU has tailored SCPs. Using separate Organizations (C) prevents centralized governance. A single account (D) doesn't provide isolation. A flat structure (A) doesn't allow differentiated SCP application.
Question 9
A company runs microservices on ECS. Service discovery is needed - services must be able to call each other using stable DNS names. Which solution should they implement?
A) Hard-code IP addresses in service configurations B) Use Route 53 private hosted zones with manual DNS registration C) Use AWS Cloud Map with ECS service discovery integration D) Use an Application Load Balancer for all inter-service communication
Answer
Answer: C
Explanation: AWS Cloud Map provides service discovery for AWS resources. ECS integrates natively with Cloud Map to automatically register/deregister service instances as they start/stop. Services can discover each other using DNS names through Cloud Map. Route 53 private hosted zones (B) require manual registration. Hard-coding IPs (A) breaks when tasks restart. ALB (D) for all inter-service communication adds latency and cost.
Question 10
A company needs to implement a data lake that ingests streaming data, batch data, and enables multiple access patterns (SQL queries, ML training, BI dashboards). What architecture should they use?
A) Store everything in a single RDS database B) Use S3 as the data lake storage with Kinesis Firehose for streaming, Glue for ETL, Athena for SQL, and SageMaker for ML C) Use Redshift as the central data store D) Use a single DynamoDB table with different indexes
Answer
Answer: B
Explanation: The modern AWS data lake architecture uses S3 as the foundation (separate zones: raw, processed, curated). Kinesis Firehose handles streaming ingestion, Glue handles batch ETL and cataloging, Athena provides serverless SQL, SageMaker accesses S3 for ML. This architecture separates storage from compute and supports multiple access patterns without moving data. Redshift (C) is optimized for structured data warehousing. DynamoDB (D) is for operational NoSQL workloads.
Question 11
A company has a hybrid architecture with on-premises servers and AWS. They need to ensure on-premises servers can resolve AWS Route 53 private hosted zone DNS names. What should they implement?
A) Direct all on-premises DNS to Route 53 public resolver B) Use Route 53 Resolver inbound endpoints to allow on-premises DNS to query Route 53 C) Route 53 Resolver outbound endpoints to forward on-premises DNS queries D) Copy all private DNS records to on-premises DNS servers
Answer
Answer: B
Explanation: Route 53 Resolver inbound endpoints are IP addresses in the VPC that on-premises DNS servers can forward queries to. When on-premises DNS queries for a Route 53 private hosted zone name, it forwards to the inbound endpoint IP, which resolves using Route 53. Outbound endpoints (C) are for forwarding AWS DNS queries to on-premises DNS. Public resolver (A) doesn't resolve private hosted zone names.
Question 12
A company stores PII data in S3 and needs to automatically discover, classify, and protect this data across hundreds of S3 buckets. Which service automates this?
A) AWS Config B) Amazon Macie C) Amazon Inspector D) AWS Security Hub
Answer
Answer: B
Explanation: Amazon Macie uses ML to automatically discover, classify, and protect sensitive data in S3, including PII (names, credit card numbers, SSNs, etc.). It continuously monitors S3 and generates findings. Macie provides data discovery and classification at scale. AWS Config (A) monitors resource configurations. Inspector (C) scans for vulnerabilities. Security Hub (D) aggregates findings.
Question 13
A company runs a critical application with a 99.99% availability requirement. The application has a stateful component that requires in-memory caching. What architecture provides the highest availability for the caching layer?
A) Amazon ElastiCache Redis single node B) Amazon ElastiCache Redis Multi-AZ with automatic failover C) Amazon ElastiCache Redis Global Datastore (multi-region) D) Local in-memory cache on EC2 instances
Answer
Answer: C
Explanation: For 99.99% availability (requiring multi-region), ElastiCache Redis Global Datastore provides replication across multiple AWS regions with sub-second replication lag and automatic failover. A single node (A) has no redundancy. Multi-AZ (B) provides ~99.95% availability within a region. Global Datastore (C) provides the highest availability by spanning regions. Local in-memory cache (D) is not shared across instances.
Question 14
A company needs to implement a cost-effective strategy for running dev/test workloads. Dev instances should automatically stop at 7 PM and start at 9 AM on weekdays. What should they implement?
A) Manual start/stop with developer reminders B) AWS Instance Scheduler (solution from AWS Solutions Library) C) CloudWatch Alarms with Auto Scaling D) EC2 Auto Scaling scheduled actions
Answer
Answer: B
Explanation: AWS Instance Scheduler is an AWS solution that automatically starts and stops EC2 and RDS instances on a defined schedule. It supports multiple schedules, time zones, and can manage instances across multiple accounts and regions. EC2 Auto Scaling scheduled actions (D) work for ASGs but not standalone instances. Manual start/stop (A) is unreliable. CloudWatch alarms (C) are for metric-based actions, not time-based.
Question 15
A large enterprise is migrating to AWS. They have 500+ on-premises applications. The migration team needs to prioritize applications based on complexity and interdependencies. Which approach and tool should they use?
A) Manually document each application B) Use AWS Migration Hub with application discovery and dependency analysis C) Use AWS Well-Architected Tool D) Use Amazon Inspector to scan applications
Answer
Answer: B
Explanation: AWS Migration Hub provides a central location to track migration progress. AWS Application Discovery Service (part of Migration Hub) collects data on on-premises servers and applications, including performance data and network connections (dependencies). This data helps prioritize migrations. The Well-Architected Tool (C) evaluates architectures against best practices. Inspector (D) scans for security vulnerabilities.
Question 16
A company needs to implement a data sovereignty solution. Customer data from EU customers must only be stored and processed in EU regions. How should they architect this?
A) Use a single global AWS account with data stored in EU regions B) Implement separate AWS accounts for EU customers with SCPs restricting data to EU regions, and a data residency enforcement strategy C) Use CloudFront to route EU traffic to EU origins D) Use IAM conditions to restrict data storage to EU regions
Answer
Answer: B
Explanation: Separate AWS accounts for EU customers, with SCPs restricting allowed regions to only EU regions (aws:RequestedRegion not in EU regions = deny), ensures data sovereignty at the organizational policy level. This prevents even admin users from accidentally storing data outside EU regions. A single account (A) relies on IAM controls which can be complex to enforce consistently. CloudFront routing (C) handles traffic but not data storage. IAM conditions (D) must be in every policy and can be missed.
Question 17
A company has a Direct Connect connection from their data center. They want to use Direct Connect for primary connectivity and Site-to-Site VPN as backup. How should they configure the BGP routing?
A) Set equal BGP metrics for both connections B) Prefer Direct Connect by setting a higher BGP MED on the VPN; use BGP route preference C) Use Route 53 health checks to switch between connections D) Configure static routes for failover
Answer
Answer: B
Explanation: For Direct Connect primary with VPN backup, configure BGP so Direct Connect is preferred. On the on-premises side, advertise a longer AS-PATH for the VPN routes (making them less preferred). On the AWS side, use BGP Community attributes to influence route preference. The BGP MED (Multi-Exit Discriminator) or AS-PATH prepending achieves this. Route 53 health checks (C) are for DNS-based failover. Static routes (D) don't provide dynamic failover.
Question 18
A company uses AWS Organizations and wants to provide centralized DNS for all accounts. All accounts should be able to resolve internal domain names. What is the recommended architecture?
A) Deploy Route 53 private hosted zones in each account B) Share Route 53 Resolver rules using AWS RAM; centralize DNS in a shared services account C) Use public hosted zones for all internal DNS D) Deploy DNS servers on EC2 in each account
Answer
Answer: B
Explanation: The recommended architecture: (1) Create Route 53 Resolver outbound endpoint rules in a shared services account that forward queries to on-premises DNS. (2) Associate private hosted zones with VPCs using Route 53 Resolver. (3) Share Resolver rules via AWS RAM so all accounts can use them. This centralizes DNS management while making it available across all accounts. Per-account Route 53 deployment (A) duplicates management. EC2 DNS servers (D) require infrastructure management.
Question 19
A company runs a multi-tenant SaaS application. Each tenant's data is in a separate DynamoDB table with a tenant-specific prefix. The application uses Cognito for authentication. How should they implement tenant isolation using IAM?
A) Create separate AWS accounts per tenant B) Use Cognito User Pools with IAM roles mapped to Cognito groups, using IAM policy conditions with dynamodb:LeadingKeys C) Use DynamoDB resource-based policies per table D) Implement application-level tenant isolation without IAM
Answer
Answer: B
Explanation: Cognito Identity Pools can map authenticated users to IAM roles based on their Cognito group membership (tenant group). IAM policies can restrict DynamoDB access using the dynamodb:LeadingKeys condition, limiting access to only items with the tenant's prefix. This implements fine-grained access control at the IAM level. Separate accounts per tenant (A) is too expensive for many tenants. Application-level isolation (D) relies on application code correctness.
Question 20
A company has a distributed application that uses multiple queues and topics. Messages flow: Producer → SNS → SQS → Consumer. They're seeing message duplication in the consumer. How should they handle idempotency?
A) Switch to SQS FIFO queues for exactly-once processing B) Use DynamoDB to track processed message IDs with conditional writes for idempotency C) Remove SNS and use SQS directly D) Use SQS message timers to reduce duplication
Answer
Answer: B
Explanation: Using DynamoDB with conditional writes to track message IDs implements idempotent processing. Before processing a message, check if the ID exists in DynamoDB; if it does, skip processing. The conditional write ensures only one instance processes each message even with at-least-once delivery. SQS FIFO (A) provides exactly-once within the queue but messages from SNS may still be duplicated. Removing SNS (C) changes the architecture unnecessarily. Message timers (D) don't prevent duplication.
Question 21
A company needs to implement a CI/CD pipeline that deploys a microservices application to multiple AWS regions. The deployment must be sequential (primary region first, then secondary) and include automated testing. What architecture achieves this?
A) Separate CodePipelines per region with manual triggers B) A single CodePipeline with sequential deployment stages for each region, with CodeBuild testing gates between stages C) AWS CodeDeploy with multi-region capability D) Use Lambda to coordinate deployments across regions
Answer
Answer: B
Explanation: A single CodePipeline with sequential stages achieves ordered deployment: deploy to primary region → run automated tests → deploy to secondary region → run tests. The pipeline can assume cross-account/cross-region roles to deploy. Testing gates between stages prevent promotion if tests fail. Separate pipelines per region (A) require manual coordination. CodeDeploy (C) doesn't provide the pipeline orchestration needed. Lambda coordination (D) adds custom complexity.
Question 22
A company uses Amazon EKS with multiple node groups. They want to ensure that production workloads always run on dedicated nodes and are not preempted by other workloads. What Kubernetes features should they use?
A) Resource quotas only B) Node affinity rules with dedicated node groups + Kubernetes taints and tolerations C) Pod priority and preemption D) Horizontal Pod Autoscaler
Answer
Answer: B
Explanation: Taints on dedicated production nodes (e.g., dedicated=production:NoSchedule) prevent non-production pods from scheduling there. Tolerations on production pods allow them to schedule on tainted nodes. Node affinity rules ensure production pods prefer/require production nodes. This combination ensures production workload isolation. Resource quotas (A) limit resource consumption but don't prevent scheduling on same nodes. HPA (D) scales pods but doesn't control placement.
Question 23
A company wants to implement a "FinOps" practice. They need to allocate costs to business units, set budgets per team, and get recommendations for cost optimization. What AWS services should they use?
A) AWS Billing console only B) AWS Cost Allocation Tags + AWS Cost Explorer + AWS Budgets + AWS Compute Optimizer C) AWS CloudTrail cost tracking D) AWS Trusted Advisor only
Answer
Answer: B
Explanation: The FinOps practice on AWS uses: Cost Allocation Tags to tag resources by business unit/team, Cost Explorer to analyze spending by tags/services, Budgets to set alerts when spending exceeds thresholds per team/project, and Compute Optimizer to identify rightsizing opportunities. CloudTrail (C) is for API logging. Trusted Advisor (D) provides some cost checks but isn't comprehensive for FinOps. The AWS Billing console alone (A) doesn't provide granular allocation.
Question 24
A company needs to build a real-time fraud detection system. Transactions come in at 10,000 per second. Each transaction must be evaluated against fraud rules in milliseconds. What architecture handles this?
A) Store transactions in RDS and run batch fraud detection jobs B) Kinesis Data Streams → Lambda for rule evaluation → DynamoDB for results + ElastiCache for feature lookup C) SQS → EC2 fleet for detection D) API Gateway → RDS for fraud checking
Answer
Answer: B
Explanation: Kinesis Data Streams can handle 10,000+ events per second. Lambda (triggered by Kinesis) evaluates fraud rules in real-time. ElastiCache provides sub-millisecond feature lookup (account history, velocity checks). DynamoDB stores results with high throughput. This architecture handles the scale and latency requirements. Batch processing (A) doesn't meet millisecond requirements. SQS → EC2 (C) has higher operational overhead. API Gateway → RDS (D) doesn't handle the throughput.
Question 25
A company has multiple AWS accounts and wants to enforce a standard set of security controls across all accounts. New accounts should automatically have security controls applied. What service orchestrates this?
A) AWS CloudFormation in each account B) AWS Control Tower C) AWS Config in each account D) Manual account setup
Answer
Answer: B
Explanation: AWS Control Tower automates the setup of a multi-account AWS environment based on best practices. It provisions accounts with pre-configured security controls (guardrails), sets up a landing zone, and ensures new accounts (vended through Account Factory) are automatically provisioned with required controls. CloudFormation (A) in each account doesn't handle account vending automation. Config (C) monitors but doesn't automate account setup. Manual setup (D) doesn't scale.
Question 26
A company runs a stateful application on ECS that requires persistent connections to a database. During ECS service updates (rolling deployments), database connection pool exhaustion occurs. What is the BEST solution?
A) Increase the database instance size B) Add RDS Proxy to manage connection pooling and handle graceful connection management during ECS rollouts C) Use ECS blue/green deployments only D) Increase the database max connections
Answer
Answer: B
Explanation: RDS Proxy maintains persistent connection pools to the database and multiplexes application connections. During rolling ECS updates, new tasks connect to the Proxy while old tasks drain - the Proxy handles the connection management transparently. It prevents connection exhaustion during deployments by pooling and reusing connections. Increasing DB size (A) or max connections (D) are temporary fixes. Blue/green (C) switches all at once, which can cause a connection spike.
Question 27
A company has a complex VPC architecture with many subnets and route tables. After a network change, connectivity is broken. How should they troubleshoot this systematically?
A) Check Security Groups first, then Network ACLs B) Use VPC Reachability Analyzer to test specific paths and identify the blocking component C) Enable VPC Flow Logs and wait for data D) Use AWS CloudTrail to see what changed
Answer
Answer: B
Explanation: VPC Reachability Analyzer is a network diagnostic tool that analyzes the network configuration between two endpoints without generating actual traffic. It identifies exactly which component (security group rule, route table, NACL, etc.) is blocking connectivity and explains why. Security group checks (A) are manual and time-consuming. Flow Logs (C) require traffic to be generated. CloudTrail (D) shows what changed but doesn't diagnose current connectivity.
Question 28
A company uses S3 for storing large datasets. Analysts frequently query the same subsets of data. They want to reduce Athena query costs. What should they implement?
A) Copy frequently queried data to a separate S3 bucket B) Use S3 Intelligent-Tiering for all objects C) Partition the data properly and use Athena query result caching + AWS Glue partition indexes D) Move data to Redshift
Answer
Answer: C
Explanation: Athena charges based on data scanned. Proper partitioning (by date, region, etc.) reduces the data scanned per query. Athena result caching reuses query results for identical queries. Glue partition indexes speed up partition pruning. S3 Intelligent-Tiering (B) reduces storage costs but doesn't reduce Athena query costs. Moving to Redshift (D) changes the architecture significantly. Copying data (A) increases storage costs.
Question 29
A company needs to migrate from a monolithic Oracle application to a microservices architecture on AWS. The migration should minimize risk and allow rollback. What migration pattern should they use?
A) Big-bang: rewrite everything at once B) Strangler Fig pattern: incrementally replace monolith functionality with microservices C) Lift-and-shift the monolith first, then refactor D) Run monolith and microservices forever in parallel
Answer
Answer: B
Explanation: The Strangler Fig pattern involves gradually replacing parts of the monolith with new microservices. New functionality is built as microservices, existing functionality is gradually migrated. A facade (like API Gateway) routes requests to either the monolith or microservices. This minimizes risk as you can always route back to the monolith if a service fails. Big-bang (A) has high risk. Lift-and-shift then refactor (C) is the "strangler fig light" approach. Running both forever (D) doubles operational costs.
Question 30
A company has strict encryption requirements. All data at rest must be encrypted with customer-managed keys. The key rotation must be automatic and auditable. How should they implement this?
A) Use AWS-managed KMS keys (aws/s3, etc.) B) Use Customer Managed KMS Keys with automatic key rotation enabled and CloudTrail logging of all key usage C) Use SSE-C (customer-provided keys) for S3 D) Use client-side encryption with application-managed keys
Answer
Answer: B
Explanation: Customer Managed KMS Keys (CMKs) with automatic annual rotation enabled provides auditable, customer-managed encryption. CloudTrail automatically logs all KMS API calls (including each encrypt/decrypt operation) to the key's key policy. CMKs give full control over the key policy, rotation, and usage. AWS-managed keys (A) cannot have custom key policies. SSE-C (C) requires managing keys outside AWS. Client-side encryption (D) increases application complexity and auditability challenges.
Question 31
A company needs to implement a multi-region active-active architecture for their application. Users should be routed to the nearest healthy region. What combination provides this?
A) Route 53 latency routing + health checks + identical infrastructure in each region B) CloudFront with multiple origins C) Global Accelerator with endpoint groups in each region D) Both A and C are valid approaches
Answer
Answer: D
Explanation: Both Route 53 latency routing with health checks (A) and Global Accelerator (C) can implement multi-region active-active routing. Route 53 uses DNS-based routing with TTL-dependent failover (slower). Global Accelerator uses AWS anycast IP addresses and routes at the network level (faster failover, typically sub-minute). The choice depends on requirements: applications needing fast failover prefer Global Accelerator; DNS-based routing is simpler and already used for most web applications.
Question 32
A company is designing an event-driven architecture for an e-commerce platform. Order events must trigger inventory updates, payment processing, and notifications. Each component must be independently scalable and failures should not block other components. What architecture should they use?
A) Synchronous API calls between services B) Amazon EventBridge with event buses for order events, with separate consumers per function (inventory, payment, notifications) C) A single SQS queue for all events D) SNS with all consumers subscribed to one topic
Answer
Answer: B
Explanation: Amazon EventBridge provides an event bus where order events are published. Different event rules route to separate targets (Lambda, SQS queues, Step Functions) for inventory, payment, and notifications. Each consumer processes independently and failures in one don't affect others. EventBridge provides retry and dead-letter queue support. Synchronous API calls (A) create tight coupling. A single SQS queue (C) means only one consumer per message. SNS with one topic (D) fans out but lacks EventBridge's routing and schema filtering capabilities.
Question 33
A company wants to implement a robust disaster recovery strategy. Their RTO is 30 minutes and RPO is 5 minutes. They use a complex multi-tier application. What DR strategy achieves this within cost constraints?
A) Backup and restore to a secondary region B) Pilot Light with automated failover - keep minimal core components running, use CloudFormation to scale up C) Warm Standby - keep a scaled-down version running, scale up on failover D) Multi-Site Active/Active - full infrastructure in both regions
Answer
Answer: C
Explanation: Warm Standby keeps a scaled-down but fully functional version running in the DR region. For 5-minute RPO, database replication must be near-real-time (Aurora Global Database or DMS CDC). For 30-minute RTO, you only need to scale up existing resources (no provisioning time). Backup and Restore (A) typically has hours of RTO. Pilot Light (B) requires starting and provisioning servers (potentially > 30 minutes for complex apps). Multi-Site (D) meets the requirement but is more expensive.
Question 34
A company has a complex IAM permission structure. They need to understand what a specific IAM role can do and whether it complies with least privilege. What tool provides this analysis?
A) AWS IAM Access Analyzer B) AWS CloudTrail last accessed information C) AWS IAM Policy Simulator D) All of the above serve different purposes
Answer
Answer: D
Explanation: All three tools serve different purposes for IAM analysis: (1) IAM Access Analyzer identifies resources shared externally and generates least-privilege policies based on CloudTrail access activity. (2) CloudTrail last accessed information shows when IAM entities last used services/actions, helping identify unused permissions. (3) IAM Policy Simulator tests what API actions a policy allows/denies. For a comprehensive least-privilege analysis, use all three together.
Question 35
A company is deploying a new SaaS product on AWS. They need to provide each customer with their own isolated environment but manage it centrally. What AWS feature enables this efficiently?
A) Deploy a separate CloudFormation stack per customer manually B) AWS Service Catalog with portfolio sharing to customer accounts, or AWS Control Tower Account Factory for Terraform (AFT) C) Terraform modules for each customer D) Manual account creation for each customer
Answer
Answer: B
Explanation: AWS Service Catalog allows publishing standardized products (CloudFormation stacks) that customers can self-service deploy into their accounts. For account-level isolation, Control Tower Account Factory (and its Terraform variant AFT) automates account vending with consistent configurations. Service Catalog enforces standardization while enabling self-service. Manual deployment (A, D) doesn't scale. Terraform alone (C) requires additional orchestration.
Question 36
A company runs workloads on EC2 Spot Instances. They need to handle Spot interruptions gracefully. The application processes messages from SQS. What should they implement?
A) Only use On-Demand instances B) Use EC2 Instance Interruption notices to drain the current task, then signal SQS to make the message visible again before termination C) Use multiple smaller Spot Instance pools with Spot Fleet and Auto Scaling D) Use checkpointing to S3 and SQS message visibility timeout management on interruption
Answer
Answer: D
Explanation: The robust approach: when a Spot interruption notice is received (2 minutes before termination), save the checkpoint to S3, then change the SQS message visibility timeout to 0 (making it immediately visible for another consumer). This ensures no work is lost. Using multiple Spot pools (C) reduces interruption frequency but doesn't handle them when they occur. Draining and releasing (B) is part of the solution but checkpointing ensures resumability.
Question 37
A company needs to comply with PCI DSS requirements. Their payment processing application runs on AWS. The cardholder data environment (CDE) must be isolated from other workloads. What architecture implements this?
A) Use separate security groups for the CDE workloads B) Isolate the CDE in a separate AWS account with strict SCPs and dedicated Direct Connect or VPN for all CDE traffic C) Use network ACLs to isolate the CDE VPC D) Use S3 bucket policies to restrict CDE data access
Answer
Answer: B
Explanation: PCI DSS requires strict isolation of the CDE. Separate AWS accounts provide the strongest isolation - different blast radius, separate audit trail, dedicated IAM and network controls. SCPs ensure the CDE account cannot be misconfigured to reduce security. Dedicated connectivity (Direct Connect virtual interface) for CDE traffic avoids sharing network paths with non-CDE workloads. Security groups (A) and NACLs (C) provide some isolation but not the level required for PCI compliance.
Question 38
A company has an application that needs to process events in the order they were received. The application uses multiple consumers. Which service guarantees ordered processing per partition?
A) Amazon SQS Standard Queue B) Amazon SQS FIFO Queue C) Amazon Kinesis Data Streams with multiple shards D) Amazon SNS
Answer
Answer: C
Explanation: Amazon Kinesis Data Streams guarantees ordering within a shard. By using a partition key that maps related events to the same shard, you ensure ordered processing for that group while still using multiple shards for scale. SQS FIFO (B) guarantees ordering per message group within a single queue but is limited to 300 TPS per API action. Kinesis supports much higher throughput with ordering guarantees per shard. SQS Standard (A) doesn't guarantee order. SNS (D) doesn't guarantee order.
Question 39
A company uses AWS Organizations and wants to prevent any account from creating public S3 buckets, regardless of account administrator permissions. How do they implement this?
A) S3 Block Public Access setting in each account
B) SCP denying s3:PutBucketPublicAccessBlock with false value
C) SCP denying s3:PutBucketAcl and s3:PutBucketPolicy actions that grant public access, combined with enforcing S3 Block Public Access through the SCP
D) AWS Config rule in each account
Answer
Answer: C
Explanation: An SCP can deny actions that would make buckets public. Additionally, an SCP can mandate that s3:PutAccountPublicAccessBlock must always have BlockPublicAcls: true (and other Block Public Access settings). This prevents any account admin from disabling Block Public Access. Config rules (D) detect but don't prevent. Per-account S3 settings (A) can be changed by account admins. The SCP approach (C) prevents the change at the organizational level.
Question 40
A company needs to implement a zero-trust network architecture on AWS. All service-to-service communication must be authenticated and authorized, even within the same VPC. What combination implements this?
A) VPC security groups with tight rules B) AWS App Mesh (service mesh) with mTLS + AWS IAM Roles for service accounts (IRSA for EKS) or ECS task roles C) Network ACLs with strict rules D) PrivateLink for all service communication
Answer
Answer: B
Explanation: Zero-trust requires authentication and authorization for all service-to-service communication. AWS App Mesh provides a service mesh with mutual TLS (mTLS) for certificate-based authentication between services. IAM Roles for Service Accounts (IRSA for EKS) or ECS task roles provide identity for service-level authorization. Together, these ensure all communication is authenticated and authorized. Security groups (A) provide network-level controls but not application-layer identity. PrivateLink (D) provides private connectivity but not mutual authentication.
Question 41
A company runs a batch analytics job every night using EMR. The job processes data in S3 and writes results to S3. Currently it uses On-Demand instances. How can they significantly reduce EMR cluster costs?
A) Use smaller instance types B) Use Spot Instances for task nodes and On-Demand for core/master nodes C) Move to EC2 Reserved Instances D) Use EMR Serverless
Answer
Answer: B
Explanation: EMR clusters have core nodes (store data in HDFS, must be stable) and task nodes (add compute capacity, stateless). Using Spot Instances for task nodes (where interruption doesn't lose data) provides up to 90% cost savings on the majority of cluster cost. Core and master nodes should use On-Demand for reliability. EMR Serverless (D) is also a good option for batch workloads as it eliminates cluster management, but the question specifically asks about cost reduction on EMR clusters.
Question 42
A company needs to migrate from on-premises Active Directory to the cloud. Applications use LDAP and Kerberos authentication. Some applications must continue to use the same AD domain name. What AWS service provides this capability?
A) Amazon Cognito B) AWS IAM Identity Center C) AWS Managed Microsoft AD D) AWS Directory Service Simple AD
Answer
Answer: C
Explanation: AWS Managed Microsoft AD is a fully managed Microsoft Active Directory service that supports LDAP, Kerberos, and other AD protocols. It can be used as the primary directory or in a trust relationship with existing on-premises AD. Applications can join the same AD domain. Cognito (A) is for consumer identity management. IAM Identity Center (B) is for AWS access management using SAML/SCIM. Simple AD (D) is a Samba-based implementation that doesn't support all AD features.
Question 43
A company is designing a serverless API. They need the API to scale to millions of requests per second and minimize cold start latency for critical paths. What should they implement?
A) Large memory Lambda with standard provisioning B) Lambda with Provisioned Concurrency for critical paths + Lambda Power Tuning for optimal configuration C) Lambda with reserved concurrency D) EC2-based API behind API Gateway
Answer
Answer: B
Explanation: Provisioned Concurrency keeps Lambda instances initialized and ready, eliminating cold starts for critical paths. Lambda Power Tuning helps find the optimal memory/CPU configuration for best performance/cost. Reserved Concurrency (C) limits the maximum concurrency but doesn't eliminate cold starts. EC2 (D) requires managing servers. Large memory alone (A) reduces cold start duration but doesn't eliminate it like provisioned concurrency does.
Question 44
A company needs to implement a blue/green deployment for their Aurora database schema changes. After testing the new schema, they need to cut over with minimal downtime. What is the recommended approach?
A) Create a read replica, promote it, and point applications to the new instance B) Use Aurora Blue/Green Deployments with the switchover feature C) Dump and restore the database with new schema D) Use DMS to migrate between two Aurora instances
Answer
Answer: B
Explanation: Aurora Blue/Green Deployments creates a staging environment synchronized with production. You apply schema changes to the staging (green) environment, test them, and then perform a managed switchover. The switchover is fast (typically seconds) and Aurora handles connection draining and switching. It provides a tested, safe way to apply database changes with minimal downtime and easy rollback. Read replica promotion (A) has longer downtime. Dump/restore (C) has significant downtime. DMS (D) adds operational complexity.
Question 45
A company uses a microservices architecture with 50+ services. They need to trace requests across all services to identify performance bottlenecks. The tracing must work across Lambda, ECS, and EC2. What should they use?
A) CloudWatch Logs correlation B) AWS X-Ray with the X-Ray SDK instrumented in all services C) VPC Flow Logs D) CloudWatch Application Insights
Answer
Answer: B
Explanation: AWS X-Ray provides end-to-end distributed tracing across Lambda, ECS, EC2, and other AWS services. The X-Ray SDK instruments applications to create trace segments that show the complete request path, timing, and any errors. The X-Ray Service Map visualizes service dependencies and identifies bottlenecks. CloudWatch Logs (A) require manual correlation. VPC Flow Logs (C) capture network-level data. CloudWatch Application Insights (D) uses patterns for monitoring but doesn't provide request-level tracing.
Question 46
A company has a legacy application that uses a shared database. Multiple services write to the same tables causing contention. They want to modernize without a complete rewrite. What pattern addresses this?
A) Add more database read replicas B) Implement the Database-per-Service pattern with data synchronization using DMS CDC or Kafka C) Increase the database instance size D) Add caching with ElastiCache
Answer
Answer: B
Explanation: The Database-per-Service pattern separates the shared database into service-specific databases. DMS with CDC or Kafka can synchronize data between databases during transition. This eliminates contention and allows services to choose optimal database types. While not a "zero rewrite" solution, it's less risky than a complete rewrite. More read replicas (A) helps reads but not write contention. Increasing size (C) is a temporary fix. Caching (D) reduces read load but not write contention.
Question 47
A company wants to implement a landing zone with security best practices for new AWS accounts. New accounts should have CloudTrail enabled, GuardDuty enabled, Security Hub enabled, and specific IAM configurations applied automatically. What service automates this?
A) AWS CloudFormation StackSets B) AWS Control Tower C) AWS Config Aggregator D) AWS Organizations
Answer
Answer: B
Explanation: AWS Control Tower provides a landing zone that automatically provisions new accounts with security best practices including CloudTrail, Config, GuardDuty, and Security Hub. It uses CloudFormation StackSets under the hood but provides a higher-level abstraction with account factory, guardrails (detective and preventive), and a management dashboard. StackSets alone (A) require manual orchestration. Config Aggregator (C) provides visibility. Organizations (D) provides the structure but not automatic security tooling.
Question 48
A company needs to ensure their S3 data lake is queryable even when files have inconsistent schemas (some columns missing, different data types). They use Parquet files and Athena. What feature should they enable?
A) S3 Select B) Athena schema-on-read with Glue schema registry C) AWS Glue ETL to normalize schemas before storing D) Apache Iceberg table format with schema evolution support
Answer
Answer: D
Explanation: Apache Iceberg (supported in Athena) provides schema evolution - you can add columns, rename columns, and change compatible types without rewriting data. It maintains schema versions and handles different file schemas transparently. Glue Schema Registry (B) validates schemas for streaming data. Glue ETL (C) can normalize schemas but requires processing all data before querying. S3 Select (A) is for filtering within individual objects.
Question 49
A company needs to implement secure file transfer for partners. Partners should upload files to an S3 bucket using SFTP. The SFTP server must have a fixed IP address and support multiple users with different home directories. What should they use?
A) EC2 with OpenSSH and Elastic IP B) AWS Transfer Family for SFTP with S3 backend C) S3 presigned URLs for partners D) AWS DataSync with SFTP source
Answer
Answer: B
Explanation: AWS Transfer Family provides managed SFTP, FTPS, and FTP servers backed by S3 or EFS. It supports fixed IP addresses (static Elastic IPs or custom hostname), user management (IAM or custom identity providers), and logical directory mapping (home directories per user). EC2 with SSH (A) requires managing server infrastructure and patching. S3 presigned URLs (C) don't provide SFTP protocol support. DataSync SFTP (D) is for copying data from an existing SFTP server to AWS.
Question 50
A company runs their workload across 3 regions for high availability. They need a global configuration management solution that allows them to manage configuration centrally and have it available in all regions with millisecond access times. What should they use?
A) S3 with cross-region replication B) DynamoDB Global Tables for configuration storage C) Parameter Store in each region D) CloudFormation StackSets
Answer
Answer: B
Explanation: DynamoDB Global Tables automatically replicates data across multiple AWS regions with low-latency reads and writes in each region. For configuration that changes infrequently but needs global availability with low latency, Global Tables are ideal. S3 with CRR (A) has higher latency (file-based). Parameter Store (C) in each region requires manual synchronization. CloudFormation StackSets (D) deploys resources, not configuration storage.
Question 51
A company has a security requirement that all API keys and secrets must be stored with automatic rotation enabled. Some secrets are used by on-premises servers. Which service supports both automatic rotation and external access?
A) AWS KMS B) AWS Secrets Manager with Lambda rotation function accessible via VPC endpoint or internet C) SSM Parameter Store with SecureString D) IAM roles for on-premises servers
Answer
Answer: B
Explanation: AWS Secrets Manager supports automatic rotation via Lambda rotation functions and can be accessed from on-premises servers via HTTPS (through the internet or via VPC endpoint if using Direct Connect/VPN). KMS (A) manages encryption keys, not application secrets. SSM Parameter Store (C) supports SecureString but lacks built-in automatic rotation for arbitrary secrets. IAM roles (D) are for AWS resources, not on-premises servers (though IAM Roles Anywhere extends this capability).
Question 52
A company wants to implement a global load balancing solution that provides consistent performance for users regardless of their location, with sub-second failover. What should they use?
A) Route 53 with latency-based routing B) AWS Global Accelerator C) CloudFront with multiple origins D) Elastic Load Balancer in each region
Answer
Answer: B
Explanation: AWS Global Accelerator uses AWS's global network infrastructure and anycast IP addresses to route users to the optimal endpoint. It provides sub-second failover (doesn't depend on DNS TTL) and consistently routes users to the lowest-latency endpoint using the AWS backbone network. Route 53 (A) relies on DNS TTL which means failover can take minutes. CloudFront (C) is optimized for HTTP/HTTPS CDN workloads. ELB (D) is regional only.
Question 53
A company needs to build a serverless data pipeline that processes CSV files uploaded to S3, transforms them, and loads them into Redshift. The pipeline must handle failures and retry processing. What architecture should they use?
A) Lambda directly writing to Redshift B) S3 Event → EventBridge → Step Functions → Glue ETL job → Redshift COPY command C) S3 Event → SQS → Lambda → Redshift D) Kinesis Firehose directly to Redshift
Answer
Answer: B
Explanation: Step Functions provides orchestration with retry logic and error handling. EventBridge routes S3 events to Step Functions. The workflow can: validate the file, run a Glue ETL job for transformation, use Redshift COPY command for efficient bulk loading, handle errors with retry and dead-letter logic. Lambda directly writing to Redshift (A) doesn't handle large datasets efficiently. SQS → Lambda → Redshift (C) lacks orchestration. Kinesis Firehose (D) requires streaming data, not S3 events.
Question 54
A company's application uses DynamoDB. They need to audit all reads and writes to specific high-sensitivity items. CloudTrail doesn't capture item-level read/write details. What should they use?
A) Enable DynamoDB point-in-time recovery B) Use DynamoDB Streams to capture all changes and write to CloudWatch Logs for auditing C) Use AWS Backup for DynamoDB D) Enable DynamoDB Encryption at rest
Answer
Answer: B
Explanation: DynamoDB Streams captures a time-ordered sequence of all item-level changes (inserts, updates, deletes) including the old and new item values. By processing the stream with Lambda and writing to CloudWatch Logs (or S3), you create an audit trail of all changes. For read auditing, you'd need application-level logging. PITR (A) is for recovery, not auditing. Backup (C) creates snapshots. Encryption (D) protects data at rest.
Question 55
A company is planning their AWS architecture and needs to choose the right Availability Zone strategy. They have a 3-tier application. What is the recommended AZ deployment strategy?
A) Deploy all tiers in a single AZ to minimize latency B) Deploy all tiers across 3 AZs minimum, with at least one instance per AZ per tier C) Deploy the web tier in 3 AZs and DB tier in a single AZ D) Use a single AZ with multiple instances
Answer
Answer: B
Explanation: Deploying each tier across at least 3 AZs ensures the application survives any single AZ failure. AWS guarantees at least 3 AZs per region, and ALB/NLB automatically route around unhealthy AZs. Each tier (web, app, database) must have replicas in all AZs to avoid a single point of failure. Single AZ deployment (A, D) is not resilient. Partial deployment (C) makes the DB tier a single point of failure.
Question 56
A company needs to implement a solution where developers can request temporary, time-limited AWS credentials for accessing production resources for debugging. Access should be audited and automatically expire. What should they implement?
A) Share IAM user credentials temporarily B) Use AWS STS AssumeRole with a time-limited session + condition for MFA requirement; log via CloudTrail C) Create temporary IAM users D) Use root account credentials
Answer
Answer: B
Explanation: STS AssumeRole allows generating temporary credentials with a defined expiration (minimum 15 minutes, maximum 12 hours). Adding an MFA condition (aws:MultiFactorAuthPresent: true) ensures the developer authenticated with MFA before assuming the role. CloudTrail logs the AssumeRole call and all subsequent API calls. This is secure, auditable, and automatically expiring. Sharing credentials (A, D) is a security risk. Temporary IAM users (C) still create long-lived credentials.
Question 57
A company runs a containerized microservices application on EKS. They want to implement autoscaling based on custom metrics from their application. What should they implement?
A) Kubernetes HPA with CPU/memory metrics only B) KEDA (Kubernetes Event-Driven Autoscaling) or HPA with custom metrics from CloudWatch via KEDA/Adapter C) EKS managed node group auto-scaling only D) Manual pod scaling
Answer
Answer: B
Explanation: KEDA (Kubernetes Event-Driven Autoscaling) supports scaling Kubernetes workloads based on many event sources including SQS queue depth, CloudWatch metrics, Prometheus metrics, etc. Alternatively, the Kubernetes Custom Metrics Adapter allows exposing custom CloudWatch metrics to HPA. Both approaches enable custom metric-based autoscaling beyond CPU/memory. HPA with only CPU/memory (A) doesn't meet the requirement. Node group scaling (C) scales the cluster, not individual services.
Question 58
A company needs to implement cost allocation for their multi-account, multi-region AWS environment. Different business units own different accounts. How should they implement cost allocation and reporting?
A) Manual review of individual account bills B) AWS Cost Categories + Cost Allocation Tags + AWS Cost Explorer with multi-account consolidation through AWS Organizations C) AWS Trusted Advisor for cost optimization only D) Separate billing for each account
Answer
Answer: B
Explanation: AWS Organizations provides consolidated billing across all accounts. Cost Allocation Tags (applied to resources by business unit, team, environment) enable granular cost attribution. AWS Cost Categories allow creating rules to categorize costs (e.g., map specific accounts to business units). Cost Explorer provides visualization and reporting across all accounts. Manual review (A) doesn't scale. Trusted Advisor (C) provides recommendations but not detailed cost allocation. Separate billing (D) loses consolidated billing benefits.
Question 59
A company is building a high-performance trading platform on AWS. Latency must be sub-millisecond between components. What deployment approach minimizes latency?
A) Deploy across multiple AZs for high availability B) Use EC2 cluster placement groups with Enhanced Networking and Elastic Fabric Adapter (EFA) C) Use Lambda for all compute D) Deploy in multiple regions
Answer
Answer: B
Explanation: EC2 Cluster Placement Groups place instances physically close together in the same AZ, minimizing network latency (single-digit microseconds). Enhanced Networking (SR-IOV) provides lower latency and higher throughput. Elastic Fabric Adapter (EFA) provides HPC-level networking for ultra-low latency. Multiple AZs (A) increase latency as cross-AZ traffic traverses more network hops. Lambda (C) has cold start latency. Multiple regions (D) dramatically increase latency.
Question 60
A company uses CloudFormation to manage their infrastructure. They have a complex stack that deploys 50+ resources. A stack update is failing due to a circular dependency error. How should they resolve this?
A) Delete the entire stack and recreate it B) Identify the circular dependency using the stack events, break the cycle using CloudFormation Export/Import or SSM Parameters for cross-stack references C) Run the update multiple times until it succeeds D) Update resources manually then import them into CloudFormation
Answer
Answer: B
Explanation: Circular dependencies occur when Resource A depends on Resource B and Resource B depends on Resource A. The solution is to break the cycle by extracting one resource into a separate stack and referencing it via CloudFormation Exports or SSM Parameter Store. Stack events identify which resources have the circular dependency. Stack deletion (A) risks data loss. Re-running the update (C) won't fix a circular dependency. Manual updates (D) create drift.
Question 61
A company needs to implement a solution for securely connecting their AWS workloads to SaaS applications (like Salesforce, ServiceNow) without exposing their VPC to the internet. What should they implement?
A) Direct internet access from the VPC B) AWS PrivateLink with VPC endpoints for SaaS providers that support it, or NAT Gateway for others C) VPN connection to each SaaS provider D) AWS Direct Connect to each SaaS provider
Answer
Answer: B
Explanation: AWS PrivateLink allows creating interface VPC endpoints to access SaaS services that publish their endpoints as PrivateLink services. Traffic stays on the AWS network without requiring internet access. For SaaS providers that don't support PrivateLink, a NAT Gateway provides internet connectivity without exposing the VPC directly. VPN/Direct Connect (C, D) to each SaaS provider is operationally complex and many SaaS providers don't offer dedicated connectivity.
Question 62
A company runs a social media application. They need to implement user timeline generation - each user's timeline aggregates posts from all accounts they follow. The application has 50 million users and each user follows 500 accounts on average. What approach handles this at scale?
A) Query DynamoDB at read time for all followed accounts B) Fanout-on-write: when a post is created, write to each follower's timeline (precomputed timeline in DynamoDB or ElastiCache) C) Use Athena to query S3 for timelines D) Use Amazon Neptune for graph traversal
Answer
Answer: B
Explanation: Fan-out on write precomputes timelines when posts are created. When User A posts, Lambda/Kinesis writes the post to each of A's followers' timeline caches. Read performance is O(1) - just read the cached timeline. This trades write complexity for read simplicity, which is optimal for read-heavy social media. Fan-in on read (A) queries all followed accounts at read time - too slow for 500 follows. Athena (C) has minutes of latency. Neptune graph traversal (D) works but has higher latency than cached timelines.
Question 63
A company needs to implement a solution to manage and rotate credentials for a legacy application that cannot be modified. The application reads credentials from a configuration file on the filesystem. What is the BEST solution?
A) Manually update the configuration file when credentials expire B) Use AWS Secrets Manager with a sidecar container or process that reads the secret and updates the configuration file automatically C) Store credentials in S3 and have the application read from S3 D) Use EC2 instance profile credentials
Answer
Answer: B
Explanation: A sidecar pattern (for containers) or a background process (for EC2) can retrieve secrets from Secrets Manager and write them to the expected configuration file location. When Secrets Manager rotates the secret, the sidecar detects the change and updates the file. The legacy application continues to read from its expected file location without modification. Manual updates (A) are error-prone. S3 storage (C) doesn't provide the rotation management. EC2 instance profiles (D) provide AWS API credentials, not application-specific credentials.
Question 64
A company uses AWS CodePipeline for deployments. They need to implement environment promotion where an artifact is deployed to staging, tested, and then promoted to production only after explicit sign-off. What mechanism should they use?
A) Automatic promotion after successful tests B) Manual Approval action in CodePipeline with SNS notification to approvers C) Separate pipelines for staging and production D) CloudWatch alarms as gates
Answer
Answer: B
Explanation: CodePipeline's Manual Approval action pauses the pipeline and sends an SNS notification to the configured approvers. The designated people review the staging deployment and explicitly approve or reject promotion. The approval includes a URL to review deployment details. This implements the "explicit sign-off" requirement. Automatic promotion (A) doesn't provide sign-off. Separate pipelines (C) require manual triggering of the production pipeline. CloudWatch alarms (D) are metric-based, not human sign-off.
Question 65
A company has a security requirement to prevent data exfiltration via S3. EC2 instances should only be able to access S3 buckets owned by the company's AWS accounts. What mechanism enforces this?
A) S3 bucket policies in each bucket
B) IAM policies on EC2 instance profiles
C) S3 VPC endpoint with an endpoint policy restricting access to specific bucket ARNs or requiring aws:ResourceAccount condition
D) Network ACLs blocking S3 traffic
Answer
Answer: C
Explanation: An S3 Gateway VPC Endpoint with an endpoint policy can restrict which S3 buckets can be accessed through the endpoint. Using the aws:ResourceAccount condition in the endpoint policy restricts access to buckets owned by specific account IDs. This prevents EC2 instances from using the VPC endpoint to access buckets in other accounts (exfiltration to external buckets). IAM policies (B) can restrict access to specific buckets but a misconfigured policy could allow others. Bucket policies (A) are per-bucket. NACLs (D) can't distinguish between S3 buckets.
Question 66
A company needs to migrate petabytes of data from an on-premises NAS to S3. The data migration must complete in 30 days. Their WAN connection is 1 Gbps. What solution meets this requirement?
A) AWS DataSync over the 1 Gbps WAN connection B) AWS Snowball Edge Compute Optimized devices in parallel C) AWS Direct Connect temporary upgrade to 10 Gbps D) Upload directly to S3 over the internet
Answer
Answer: B
Explanation: For petabytes of data within 30 days: at 1 Gbps fully utilized, you can transfer ~2.7 PB in 30 days - this might be sufficient for some amounts but not petabytes efficiently. AWS Snowball Edge devices hold up to 80 TB each. For large amounts, multiple devices can be shipped in parallel, each loaded concurrently. The physical data transfer bypasses network constraints. DataSync over 1 Gbps WAN (A) may be too slow for petabytes. Direct Connect upgrade (C) takes months to provision. Direct internet upload (D) is slower.
Question 67
A company runs Lambda functions that process sensitive financial data. They need to ensure Lambda functions only process data when running in the expected VPC and with expected security group configurations. What security mechanism should they use?
A) VPC security groups on Lambda B) Lambda resource policies C) Lambda function URL with IAM authorization D) VPC configuration on Lambda + Lambda layer for security validation
Answer
Answer: A
Explanation: Lambda functions can be configured to run inside a VPC with specific security groups. The VPC configuration restricts which network resources Lambda can access and which resources can access Lambda. Security groups control inbound/outbound traffic. When a Lambda is in a VPC with a specific security group, it inherits the network controls of that security group. Lambda resource policies (B) control who can invoke the Lambda. Lambda URL with IAM (C) is for HTTP invocations. Layer for validation (D) is application-level, not infrastructure-level.
Question 68
A company is implementing AWS Well-Architected reviews. They need to identify and remediate common architectural issues across 100+ workloads. What approach is most scalable?
A) Manual review of each workload individually B) Use AWS Well-Architected Tool with custom lenses, API to automate reviews, and AWS Trusted Advisor for automated checks C) Only review new workloads D) Use AWS Cost Explorer for architectural recommendations
Answer
Answer: B
Explanation: The AWS Well-Architected Tool provides a systematic framework for reviewing workloads. For scale: use the API to programmatically create and submit reviews, custom lenses for company-specific standards, and integrate with AWS Trusted Advisor for automated real-time checks across all accounts. Manual reviews (A) don't scale to 100+ workloads. Only reviewing new workloads (C) misses existing issues. Cost Explorer (D) is for cost analysis.
Question 69
A company uses AWS Direct Connect for their primary connectivity. They want to ensure they have redundant connectivity. They need both hardware and geographic redundancy. What should they implement?
A) Two Direct Connect connections from the same location B) Two Direct Connect connections from two different Direct Connect locations connected to two different AWS Direct Connect routers C) One Direct Connect + one VPN D) Two Direct Connect connections using LAG
Answer
Answer: B
Explanation: For maximum resilience, AWS recommends two Direct Connect connections from different physical DX locations, connecting to different AWS Direct Connect routers (to avoid single router failure). This provides both geographic redundancy (different DX locations) and hardware redundancy (different AWS routers). Same location (A) has geographic single point of failure. DX + VPN (C) provides backup but not the same bandwidth redundancy. LAG (D) combines connections from the same location, no geographic redundancy.
Question 70
A company needs to implement a solution that allows their on-premises applications to use Amazon SQS and SNS without traffic going over the internet. What should they implement?
A) Use NAT Gateway for internet access to SQS/SNS B) Create VPC Interface Endpoints for SQS and SNS and use them from Direct Connect C) Deploy SQS/SNS equivalent on-premises D) Use S3 as a message broker instead
Answer
Answer: B
Explanation: VPC Interface Endpoints for SQS and SNS create private IP addresses in your VPC that resolve to SQS/SNS. When connected via Direct Connect (with private virtual interface routing to the VPC), on-premises applications can access SQS and SNS through the Direct Connect connection without internet traversal. The DNS for the endpoint resolves to private IPs accessible via Direct Connect. NAT Gateway (A) routes through internet. On-premises equivalents (C) are not AWS services. S3 as a broker (D) is a completely different architecture.
Question 71
A company uses Kubernetes on EKS. They want to use AWS services like DynamoDB, S3, and SQS from their pods without managing static credentials. What should they use?
A) Store credentials in Kubernetes secrets B) IAM Roles for Service Accounts (IRSA) - associate IAM roles with Kubernetes service accounts C) Use EC2 instance profiles on the node D) Use environment variables with IAM credentials
Answer
Answer: B
Explanation: IAM Roles for Service Accounts (IRSA) associates IAM roles with Kubernetes service accounts using OIDC federation. Pods using the service account get temporary AWS credentials via the projected service account token, without needing static credentials or relying on the node-level EC2 instance profile. This implements least-privilege at the pod level. Static credentials in Kubernetes secrets (A) or environment variables (D) are security risks. EC2 instance profiles (C) give all pods on the node the same permissions, violating least privilege.
Question 72
A company runs multiple EC2 instances that need to communicate securely. Instead of managing TLS certificates manually, they want automated certificate management. What should they implement?
A) Self-signed certificates on each instance B) AWS Private Certificate Authority (ACM Private CA) with automatic certificate renewal and distribution C) Let's Encrypt certificates (public CA) D) AWS Certificate Manager (ACM) for all internal certificates
Answer
Answer: B
Explanation: AWS Private CA creates a private CA hierarchy that issues private certificates for internal resources. ACM integrates with Private CA to automatically renew and deploy certificates. Applications can use the AWS ACM API to request certificates for internal hostnames. ACM Public certificates (D) are only for public-facing HTTPS endpoints (ALB, CloudFront). Self-signed certificates (A) require manual management. Let's Encrypt (C) requires public domain names and may not be appropriate for internal services.
Question 73
A company needs to implement a solution that allows an S3 bucket to be accessed by specific on-premises IP ranges only. The bucket should not be accessible from the internet. What should they implement?
A) S3 bucket ACL with IP restrictions
B) S3 bucket policy with aws:SourceIp condition restricting to on-premises IP ranges
C) S3 VPC endpoint with endpoint policy + Direct Connect for on-premises access
D) IAM policies with IP conditions for all users
Answer
Answer: C
Explanation: The most robust solution: (1) Create an S3 Gateway VPC endpoint; (2) The S3 bucket policy denies access unless it comes through the VPC endpoint (using aws:SourceVpce condition); (3) On-premises access goes through Direct Connect to the VPC, then through the VPC endpoint. This ensures all access, both from AWS and on-premises, goes through controlled network paths. IP-based conditions (B) can be spoofed and are harder to maintain as IP ranges change. ACLs (A) are legacy and limited.
Question 74
A company is planning to build a machine learning platform on AWS. Data scientists need access to GPU instances for training but these instances should only run when jobs are executing, not all the time. What architecture minimizes cost while providing on-demand GPU access?
A) Keep GPU instances running 24/7 B) Use SageMaker Training Jobs with GPU instances (pay per training job duration) C) Use EC2 Spot GPU instances in an ASG with scale-to-zero D) Use AWS Batch with GPU-enabled compute environments
Answer
Answer: B
Explanation: SageMaker Training Jobs provision GPU compute only for the duration of the training job and automatically terminate the instances after. You pay only for the time the job runs. No instance management is needed. EC2 Spot in ASG (C) can scale to zero but requires managing the scaling triggers and cluster setup. AWS Batch (D) with GPU is also good for batch ML workloads but requires cluster management. Always-on instances (A) are most expensive.
Question 75
A company is using AWS Organizations with Control Tower. They need to implement a new security control that checks whether S3 bucket logging is enabled. The control should automatically remediate non-compliant buckets. What is the BEST approach?
A) Create a Config rule in each account manually B) Use Control Tower's customizations (Customizations for Control Tower - CfCT) to deploy a Config rule with SSM Automation remediation to all accounts C) Use an SCP to require bucket logging at creation D) Use Security Hub to enable the check
Answer
Answer: B
Explanation: CfCT (Customizations for Control Tower) allows deploying custom AWS Config rules, SCPs, and other resources to all accounts managed by Control Tower. Deploying a Config rule with an SSM Automation remediation document to all accounts ensures: (1) the rule checks all S3 buckets, (2) non-compliant buckets are automatically remediated by enabling logging. This scales automatically to new accounts created through Control Tower. Manual Config rule creation (A) doesn't scale. SCPs (C) are preventive but can't retroactively fix existing buckets. Security Hub (D) aggregates findings but doesn't directly remediate.
Practice exam complete. Focus on the key SAP-C02 domains: Organizational Complexity, New Solutions, Migration Planning, Cost Control, and Continuous Improvement.