[AWS] SAA -C03 DUMP 로 공부하자 5(201~230)
Q201.회사에서 모바일 앱 사용자를 대상으로 하는 마케팅 커뮤니케이션 서비스를 개발하고 있습니다. 회사는 SMS(Short Message Service)를 통해 사용자에게 확인 메시지를 보내야 합니다. 사용자는 SMS 메시지에 회신할 수 있어야 합니다. 회사는 분석을 위해 응답을 1년 동안 저장해야 합니다.솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까? ★★
A. Amazon Connect 통화 흐름을 생성하여 SMS 메시지를 보냅니다. AWS Lambda를 사용하여 응답을 처리합니다.
B. Amazon Pinpoint 여정을 구축하십시오. 분석 및 보관을 위해 이벤트를 Amazon Kinesis 데이터 스트림으로 보내도록 Amazon Pinpoint를 구성합니다.
C. Amazon Simple Queue Service(Amazon SQS)를 사용하여 SMS 메시지를 배포합니다. AWS Lambda를 사용하여 응답을 처리합니다.
D. Amazon Simple Notification Service(Amazon SNS) FIFO 주제를 생성합니다. 분석 및 보관을 위해 Amazon Kinesis 데이터 스트림을 SNS 주제에 구독합니다.
Answer: B
고객에게메시지 : PINPOINT , SNS
양방향 메시징: 고객으로부터 SMS 메시지를 받고 채팅과 같은 대화형 환경에서 회신합니다. Amazon Pinpoint를 사용하면 고객이 특정 키워드가 포함된 메시지를 보낼 때 자동 응답을 생성할 수 있습니다. Amazon Lex를 사용하여 대화형 봇을 만들 수도 있습니다. 대부분의 휴대폰 사용자는 들어오는 SMS 메시지를 받은 직후에 읽습니다. 고객에게 긴급하거나 중요한 정보를 제공해야 하는 경우 SMS 메시징이 적합한 솔루션일 수 있습니다. Amazon Pinpoint를 사용하여 대상 고객 그룹을 생성한 다음 캠페인 기반 메시지를 보낼 수 있습니다. Amazon Pinpoint를 사용하여 약속 확인, 주문 업데이트, 일회용 암호와 같은 다이렉트 메시지를 보낼 수도 있습니다.
Q202.회사에서 데이터를 Amazon S3 버킷으로 이동할 계획입니다. 데이터는 S3 버킷에 저장될 때 암호화되어야 합니다. 또한 암호화 키는 매년 자동으로 순환되어야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. 데이터를 S3 버킷으로 이동합니다. Amazon S3 관리형 암호화 키(SSE-S3)로 서버 측 암호화를 사용합니다. SSE-S3 암호화 키의 기본 제공 키 회전 동작을 사용합니다.
B. AWS Key Management Service(AWS KMS) 고객 관리형 키를 생성합니다. 자동 키 순환을 활성화합니다. 고객 관리형 KMS 키를 사용하도록 S3 버킷의 기본 암호화 동작을 설정합니다. 데이터를 S3 버킷으로 이동합니다.
C. AWS Key Management Service(AWS KMS) 고객 관리형 키를 생성합니다. 고객 관리형 KMS 키를 사용하도록 S3 버킷의 기본 암호화 동작을 설정합니다. 데이터를 S3 버킷으로 이동합니다. 매년 KMS 키를 수동으로 교체합니다.
D.데이터를 S3 버킷으로 이동하기 전에 고객 키 자료로 데이터를 암호화합니다. 키 자료 없이 AWS Key Management Service(AWS KMS) 키를 생성합니다. 고객 키 자료를 KMS 키로 가져옵니다. 자동 키 순환을 활성화합니다
Answer: B
AWS KMS CMK(고객 관리 키)는 원래 키 자동 교체(rotate)을 하진 않지만 이를 활성화할 수 있음.
Q203.금융 회사의 고객은 문자 메시지를 보내 재정 고문과의 약속을 요청합니다. Amazon EC2 인스턴스에서 실행되는 웹 애플리케이션은 약속 요청을 수락합니다. 텍스트 메시지는 웹 애플리케이션을 통해 Amazon Simple Queue Service(Amazon SQS) 대기열에 게시됩니다. EC2 인스턴스에서 실행되는 또 다른 애플리케이션은 회의 초대장과 회의 확인 이메일 메시지를 고객에게 보냅니다. 예약에 성공한 후 이 애플리케이션은 회의 정보를 Amazon DynamoDB 데이터베이스에 저장합니다.회사가 확장됨에 따라 고객은 회의 초대장이 도착하는 데 시간이 더 오래 걸린다고 보고합니다.솔루션 설계자는 이 문제를 해결하기 위해 무엇을 권장해야 합니까?
A. DynamoDB 데이터베이스 앞에 DynamoDB Accelerator(DAX) 클러스터를 추가합니다.
B. 약속 요청을 수락하는 웹 애플리케이션 앞에 Amazon API Gateway API를 추가합니다.
C. Amazon CloudFront 배포를 추가합니다. 오리진을 약속 요청을 수락하는 웹 애플리케이션으로 설정합니다.
D. 회의 초대를 보내는 애플리케이션에 대한 Auto Scaling 그룹을 추가합니다. SQS 대기열의 깊이에 따라 확장되도록 Auto Scaling 그룹을 구성합니다.
Answer: D
회의 초대 전달 시간이 길어지는 문제를 해결하기 위해 솔루션 설계자는 회의 초대를 보내는 애플리케이션에 대해 Auto Scaling 그룹을 추가하고 SQS 대기열의 깊이에 따라 확장되도록 Auto Scaling 그룹을 구성하도록 권장할 수 있습니다. 이렇게 하면 약속 요청 수가 증가함에 따라 애플리케이션이 확장되어 회의 초대의 성능 및 배달 시간이 향상됩니다.
Q204.한 온라인 소매 회사는 5천만 명 이상의 활성 고객을 보유하고 있으며 매일 25,000건 이상의 주문을 받습니다. 회사는 고객의 구매 데이터를 수집하고 이 데이터를 Amazon S3에 저장합니다. 추가 고객 데이터는 Amazon RDS에 저장됩니다.회사는 팀이 분석을 수행할 수 있도록 다양한 팀에서 모든 데이터를 사용할 수 있도록 하려고 합니다. 솔루션은 데이터에 대한 세분화된 권한을 관리하는 기능을 제공하고 운영 오버헤드를 최소화해야 합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★★
A. 구매 데이터를 마이그레이션하여 Amazon RDS에 직접 씁니다. RDS 액세스 제어를 사용하여 액세스를 제한하십시오.
B. Amazon RDS에서 Amazon S3로 데이터를 주기적으로 복사하도록 AWS Lambda 함수를 예약합니다. AWS Glue 크롤러를 생성합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다. S3 정책을 사용하여 액세스를 제한하십시오.
C. AWS Lake Formation을 사용하여 데이터 레이크를 생성합니다. Amazon RDS에 대한 AWS Glue JDBC 연결을 생성합니다. Lake Formation에 S3 버킷을 등록합니다. Lake Formation 액세스 제어를 사용하여 액세스를 제한하십시오.
D. Amazon Redshift 클러스터를 생성합니다. Amazon S3 및 Amazon RDS에서 Amazon Redshift로 데이터를 주기적으로 복사하도록 AWS Lambda 함수를 예약합니다. Amazon Redshift 액세스 제어를 사용하여 액세스를 제한하십시오.
Answer: C
A(X) : 액세스 제어하는 것까지만 나왔고 어떻게 쿼리할 것인지는 언급 안 함.
B(X) : 처음부터 S3에 다 저장할 것이지 결국 S3에 저장할 거면서 왜 RDS에 저장했다가 다시 S3에 저장하는지?
C(O) : S3 버킷을 데이터레이크로 만들고 Glue를 통해서 ETL함으로서 S3에 저장된 데이터를 RedShift 같은 서비스에서 사용할 수 있게끔 함. RDS에 저장된 고객 데이터는 Glue JDBC를 통해 변환
・S3 버킷을 AWS Lake Formation을 사용해 데이터레이크로 만들고 Glue 기능 사용해 ETL.
AWS Lake Formation 콘솔, Lake Formation API 또는 AWS 명령줄 인터페이스(AWS CLI)를 사용하여 Amazon S3 위치를 등록할 수 있습니다.
LakeFormation: 데이터의 권한관리를 중앙 집중화하여 조직전체와 외부에서 쉽게 공유할 수 있도록 합니다.
Q205.회사는 온프레미스 데이터 센터에서 마케팅 웹 사이트를 호스팅합니다. 웹 사이트는 정적 문서로 구성되며 단일 서버에서 실행됩니다. 관리자는 웹 사이트 콘텐츠를 자주 업데이트하지 않고 SFTP 클라이언트를 사용하여 새 문서를 업로드합니다.회사는 AWS에서 웹 사이트를 호스팅하고 Amazon CloudFront를 사용하기로 결정했습니다. 회사의 솔루션 아키텍트가 CloudFront 배포를 생성합니다. 솔루션 설계자는 웹 사이트 호스팅이 CloudFront 오리진 역할을 할 수 있도록 가장 비용 효율적이고 탄력적인 아키텍처를 설계해야 합니다.이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. Amazon Lightsail을 사용하여 가상 서버를 생성합니다. Lightsail 인스턴스에서 웹 서버를 구성합니다. SFTP 클라이언트를 사용하여 웹 사이트 콘텐츠를 업로드합니다.
B. Amazon EC2 인스턴스에 대한 AWS Auto Scaling 그룹을 생성합니다. Application Load Balancer를 사용하십시오. SFTP 클라이언트를 사용하여 웹 사이트 콘텐츠를 업로드합니다.
C. 프라이빗 Amazon S3 버킷을 생성합니다. S3 버킷 정책을 사용하여 CloudFront 원본 액세스 ID(OAI)에서 액세스를 허용합니다. AWS CLI를 사용하여 웹사이트 콘텐츠를 업로드합니다.
D. 퍼블릭 Amazon S3 버킷을 생성합니다. SFTP용 AWS 전송을 구성합니다. 웹 사이트 호스팅을 위해 S3 버킷을 구성합니다. SFTP 클라이언트를 사용하여 웹 사이트 콘텐츠를 업로드합니다.
Answer: C
프라이빗 S3에서 웹사이트를 호스팅하면 정적 웹사이트 콘텐츠를 위한 비용 효율적이고 가용성이 높은 스토리지를 제공합니다. CloudFront OAI의 액세스를 허용하도록 버킷 정책을 구성하면 CloudFront를 통해서만 S3에 안전하게 액세스할 수 있습니다. 이렇게 하면 웹 사이트 콘텐츠가 S3를 비공개로 유지하면서 CloudFront를 통해 제공됩니다. AWS CLI를 사용하여 웹 사이트 콘텐츠를 업로드하면 콘텐츠를 쉽고 효율적으로 관리할 수 있습니다
Q206.회사에서 Amazon 머신 이미지(AMI)를 관리하려고 합니다. 회사는 현재 AMI가 생성된 동일한 AWS 리전에 AMI를 복사합니다. 회사는 AWS API 호출을 캡처하고 회사 계정 내에서 Amazon EC2 CreateImage API 작업이 호출될 때마다 알림을 보내는 애플리케이션을 설계해야 합니다.최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★★
A. AWS CloudTrail 로그를 쿼리하고 CreateImage API 호출이 감지되면 알림을 보내는 AWS Lambda 함수를 생성합니다.
B. 업데이트된 로그가 Amazon S3로 전송될 때 발생하는 Amazon Simple Notification Service(Amazon SNS) 알림으로 AWS CloudTrail을 구성합니다. Amazon Athena를 사용하여 새 테이블을 생성하고 API 호출이 감지되면 CreateImage에서 쿼리합니다.
C. CreateImage API 호출에 대한 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다. CreateImage API 호출이 감지되면 알림을 보내도록 대상을 Amazon Simple Notification Service(Amazon SNS) 주제로 구성합니다.
D. Amazon Simple Queue Service(Amazon SQS) FIFO 대기열을 AWS CloudTrail 로그의 대상으로 구성합니다. CreateImage API 호출이 감지되면 Amazon Simple Notification Service(Amazon SNS) 주제에 알림을 보내는 AWS Lambda 함수를 생성합니다.
Answer: C
CreateImage API 호출에 대한 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성하고 CreateImage API 호출이 감지될 때 알림을 보내도록 대상을 Amazon Simple Notification Service(Amazon SNS) 주제로 구성하면 운영 오버헤드가 최소인 요구 사항을 충족합니다. .
Amazon EventBridge는 자체 애플리케이션, 통합 SaaS(Software as a Service) 애플리케이션 및 AWS 서비스의 데이터를 사용하여 애플리케이션을 쉽게 함께 연결할 수 있게 해주는 서버리스 이벤트 버스입니다. CreateImage API 호출에 대한 EventBridge 규칙을 생성하여 회사는 계정 내에서 이 작업이 호출될 때마다 경고를 설정할 수 있습니다. 경고는 SNS 주제로 보낼 수 있으며, 그런 다음 회사의 이메일 또는 기타 원하는 대상으로 알림을 보내도록 구성할 수 있습니다
Q207.회사는 사용자 요청을 수집하고 요청 유형에 따라 처리를 위해 적절한 마이크로 서비스에 요청을 발송하는 데 사용되는 비동기 API를 소유하고 있습니다. 이 회사는 Amazon API Gateway를 사용하여 API 프런트 엔드를 배포하고 Amazon DynamoDB를 호출하여 사용자 요청을 처리 마이크로서비스로 보내기 전에 저장하는 AWS Lambda 함수를 사용하고 있습니다.회사는 예산이 허용하는 한 많은 DynamoDB 처리량을 프로비저닝했지만 회사는 여전히 가용성 문제를 겪고 있으며 사용자 요청이 손실되고 있습니다.솔루션 설계자는 기존 사용자에게 영향을 주지 않고 이 문제를 해결하기 위해 무엇을 해야 합니까?
A. API 게이트웨이에서 서버 측 조절 제한을 사용하여 조절을 추가합니다.
B. DynamoDB Accelerator(DAX) 및 Lambda를 사용하여 DynamoDB에 대한 쓰기를 버퍼링합니다.
C. 사용자 요청이 있는 테이블에 대해 DynamoDB에서 보조 인덱스를 생성합니다.
D. Amazon Simple Queue Service(Amazon SQS) 대기열과 Lambda를 사용하여 DynamoDB에 대한 쓰기를 버퍼링합니다.
Answer: D
즉 사용자 요청을 잃고 있음 = SQS로 해결. 정답은 D
Q208.회사는 Amazon EC2 인스턴스에서 Amazon S3 버킷으로 데이터를 이동해야 합니다. 회사는 API 호출 및 데이터가 공용 인터넷 경로를 통해 라우팅되지 않도록 해야 합니다. EC2 인스턴스만 S3 버킷에 데이터를 업로드할 수 있는 액세스 권한을 가질 수 있습니다.이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. EC2 인스턴스가 있는 서브넷에서 Amazon S3에 대한 인터페이스 VPC 엔드포인트를 생성합니다. EC2 인스턴스의 IAM 역할만 액세스할 수 있도록 리소스 정책을 S3 버킷에 연결합니다.
B. EC2 인스턴스가 있는 가용 영역에서 Amazon S3에 대한 게이트웨이 VPC 엔드포인트를 생성합니다. 엔드포인트에 적절한 보안 그룹을 연결합니다. EC2 인스턴스의 IAM 역할만 액세스할 수 있도록 리소스 정책을 S3 버킷에 연결합니다.
C. EC2 인스턴스 내부에서 nslookup 도구를 실행하여 S3 버킷 서비스 API 엔드포인트의 프라이빗 IP 주소를 얻습니다. S3 버킷에 대한 액세스 권한을 EC2 인스턴스에 제공하기 위해 VPC 경로 테이블에 경로를 생성합니다. EC2 인스턴스의 IAM 역할만 액세스할 수 있도록 리소스 정책을 S3 버킷에 연결합니다.
D. AWS에서 제공하고 공개적으로 사용 가능한 ip-ranges.json 파일을 사용하여 S3 버킷 서비스 API 엔드포인트의 프라이빗 IP 주소를 얻습니다. S3 버킷에 대한 액세스 권한을 EC2 인스턴스에 제공하기 위해 VPC 경로 테이블에 경로를 생성합니다. EC2 인스턴스의 IAM 역할만 액세스할 수 있도록 리소스 정책을 S3 버킷에 연결합니다.
Answer: A
EC2 인스턴스-S3 버킷 간 통신이 인터넷에 노출되지 않음 = S3 Gateway Endpoint.
EC2 인스턴스와 동일한 서브넷에 Amazon S3용 인터페이스 VPC 종단점을 생성하면 EC2 인스턴스와 S3 간의 데이터 전송이 공용 인터넷을 거치지 않고 Amazon 네트워크 내에서 비공개로 발생할 수 있습니다. 이렇게 하면 EC2 인스턴스와 S3 간의 안전하고 직접적인 통신이 보장됩니다. EC2 인스턴스와 연결된 IAM 역할의 액세스만 허용하는 리소스 정책을 S3 버킷에 연결하면 권한이 부여된 인스턴스에 대한 액세스만 추가로 제한됩니다.
Q209.솔루션 아키텍트는 AWS 클라우드에 배포되는 새 애플리케이션의 아키텍처를 설계하고 있습니다. 애플리케이션은 Amazon EC2 온디맨드 인스턴스에서 실행되며 여러 가용 영역에서 자동으로 확장됩니다. EC2 인스턴스는 하루 종일 자주 확장 및 축소됩니다. Application Load Balancer(ALB)는 부하 분산을 처리합니다. 아키텍처는 분산 세션 데이터 관리를 지원해야 합니다. 회사는 필요한 경우 기꺼이 코드를 변경할 수 있습니다.아키텍처가 분산 세션 데이터 관리를 지원하도록 하기 위해 솔루션 설계자는 무엇을 해야 합니까? ★★
A. Amazon ElastiCache를 사용하여 세션 데이터를 관리하고 저장합니다.
B. ALB의 세션 선호도(스티키 세션)를 사용하여 세션 데이터를 관리합니다.
C. AWS Systems Manager의 Session Manager를 사용하여 세션을 관리합니다.
D. AWS Security Token Service(AWS STS)에서 GetSessionToken API 작업을 사용하여 세션을 관리합니다.
Answer: A
A(O) : 분산 세션 관리 : 확장성을 해결하고 개별 웹 서버에서 액세스할 수 있는 세션에 대한 공유 데이터 저장소를 제공하기 위해 웹 서버 자체에서 HTTP 세션을 추상화할 수 있습니다. 이에 대한 일반적인 솔루션은 Redis 및 Memcached 와 같은 메모리 내 키/값 저장소 를 활용하는 것 입니다.
메모리 내 키/값 저장소용 ElastiCache 제품에는 복제를 지원할 수 있는 Redis용 ElastiCache와 복제를 지원하지 않는 Memcached용 ElastiCache가 포함됩니다.
C(X) : Session Manager는 접속 서비스이지 데이터 관리 서비스가 아님. Session Manager는 인바운드 포트를 열거나, 배스천 호스트를 유지하거나, SSH 키를 관리할 필요 없이 안전하고 감사 가능한 노드 관리를 제공
D(X) : STS는 임시 보안 자격 증명 서비스. ""AWS Security Token Service(AWS STS)를 사용하면 AWS 리소스에 대한 액세스를 제어할 수 있는 임시 보안 자격 증명을 생성하여 신뢰받는 사용자에게 제공할 수 있습니다.
Q210.빠르게 성장하고 있는 음식 배달 서비스를 제공하는 회사가 있습니다. 성장으로 인해 회사의 주문 처리 시스템은 피크 트래픽 시간 동안 확장 문제를 겪고 있습니다. 현재 아키텍처에는 다음이 포함됩니다.
• 애플리케이션에서 주문을 수집하기 위해 Amazon EC2 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스 그룹입니다.
• 주문을 이행하기 위해 Amazon EC2 Auto Scaling 그룹에서 실행되는 또 다른 EC2 인스턴스 그룹.
주문 수집 프로세스는 빠르게 진행되지만 주문 이행 프로세스는 더 오래 걸릴 수 있습니다. 스케일링 이벤트로 인해 데이터가 손실되어서는 안 됩니다.
솔루션 설계자는 주문 수집 프로세스와 주문 이행 프로세스가 트래픽이 가장 많은 시간에 적절하게 확장될 수 있는지 확인해야 합니다. 솔루션은 회사의 AWS 리소스 활용을 최적화해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까? ★★
A. Amazon CloudWatch 지표를 사용하여 Auto Scaling 그룹에 있는 각 인스턴스의 CPU를 모니터링합니다. 최대 워크로드 값에 따라 각 Auto Scaling 그룹의 최소 용량을 구성합니다.
B. Amazon CloudWatch 지표를 사용하여 Auto Scaling 그룹에 있는 각 인스턴스의 CPU를 모니터링합니다. 요청 시 추가 Auto Scaling 그룹을 생성하는 Amazon Simple Notification Service(Amazon SNS) 주제를 호출하도록 CloudWatch 경보를 구성합니다.
C. 두 개의 Amazon Simple Queue Service(Amazon SQS) 대기열을 프로비저닝합니다. 하나는 주문 수집용이고 다른 하나는 주문 이행용입니다. 각 대기열을 폴링하도록 EC2 인스턴스를 구성합니다. 대기열이 보내는 알림을 기반으로 Auto Scaling 그룹을 조정합니다.
D. 2개의 Amazon Simple Queue Service(Amazon SQS) 대기열을 프로비저닝합니다. 하나는 주문 수집용이고 다른 하나는 주문 이행용입니다. 각 대기열을 폴링하도록 EC2 인스턴스를 구성합니다. 인스턴스 계산당 백로그를 기반으로 지표를 만듭니다. 이 지표를 기반으로 Auto Scaling 그룹을 조정합니다.
Answer: D
Auto Scaling 그룹의 인스턴스 수는 메시지를 처리하는 데 걸리는 시간과 허용 가능한 지연 시간(대기열 지연)에 따라 결정될 수 있습니다. 해결책은 유지 관리할 인스턴스당 허용 가능한 백로그인 대상 값과 함께 인스턴스 메트릭당 백로그를 사용하는 것입니다.
C(x)SQS 대기열을 사용하는 것이 올바른 방향으로 나아가는 단계이지만 대기열 알림만을 기준으로 확장하는 것은 최적의 리소스 활용을 제공하지 못할 수 있습니다. 인스턴스당 백로그를 고려하지 않으며 조정에 대한 세밀한 제어를 허용하지 않습니다.
전반적으로 주문 수집 및 이행을 위해 SQS 대기열을 사용하고, 인스턴스 계산당 백로그를 기반으로 메트릭을 생성하고, 이에 따라 Auto Scaling 그룹을 확장하는 옵션 D는 리소스 활용을 최적화하고 보장하면서 확장 문제를 해결하는 가장 적합한 솔루션입니다. 신뢰할 수 있는 메시지 처리
Q211.한 회사에서 여러 프로덕션 애플리케이션을 호스팅합니다. 애플리케이션 중 하나는 여러 AWS 리전에서 Amazon EC2, AWS Lambda, Amazon RDS, Amazon Simple Notification Service(Amazon SNS) 및 Amazon Simple Queue Service(Amazon SQS)의 리소스로 구성됩니다. 모든 회사 리소스에는 "응용 프로그램"이라는 태그 이름과 각 응용 프로그램에 해당하는 값이 태그로 지정됩니다. 솔루션 설계자는 태그가 지정된 모든 구성 요소를 식별하기 위한 가장 빠른 솔루션을 제공해야 합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. AWS CloudTrail을 사용하여 애플리케이션 태그가 있는 리소스 목록을 생성합니다.
B. AWS CLI를 사용하여 모든 리전에서 각 서비스를 쿼리하여 태그가 지정된 구성 요소를 보고합니다.
C. Amazon CloudWatch Logs Insights에서 쿼리를 실행하여 애플리케이션 태그가 있는 구성 요소에 대해 보고합니다.
D. AWS Resource Groups Tag Editor로 쿼리를 실행하여 애플리케이션 태그를 사용하여 전역적으로 리소스에 대해 보고합니다.
Answer: D
A(X) CloudTrail은 주로 API 활동 캡처 및 로깅에 중점을 두기 때문에 A는 가장 빠른 솔루션이 아닙니다. 리소스 변경에 대한 정보를 제공할 수 있지만 여러 서비스 및 리전에서 태그가 지정된 모든 구성 요소를 식별하는 포괄적이고 빠른 방법을 제공하지 않을 수 있습니다.
B에는 AWS CLI를 사용하여 각 서비스를 수동으로 쿼리하는 작업이 포함되며, 이는 특히 여러 서비스 및 리전을 처리할 때 시간이 많이 걸리고 번거로울 수 있습니다. 태그가 지정된 구성 요소를 빠르게 식별하기 위한 가장 효율적인 솔루션은 아닙니다.
C는 태그가 지정된 구성 요소를 직접 식별하기보다는 로그 분석에 중점을 둡니다. CloudWatch Logs Insights는 로그에서 정보를 추출하는 데 도움이 될 수 있지만 여러 서비스 및 리전에서 태그가 지정된 모든 구성 요소의 통합 목록을 수집하는 간단하고 빠른 방법을 제공하지 않을 수 있습니다.
D는 태그를 기반으로 리소스를 관리하고 구성하도록 특별히 설계된 Resource Groups Tag Editor를 활용하므로 가장 빠른 솔루션입니다. 여러 서비스 및 리전에서 태그가 지정된 구성 요소에 대한 보고서를 생성하는 중앙 집중식의 효율적인 접근 방식을 제공합니다.
Q212.회사는 다른 팀이 액세스할 수 있도록 데이터베이스를 하루에 한 번 Amazon S3로 내보내야 합니다. 내보낸 개체 크기는 2GB에서 5GB 사이입니다. 데이터에 대한 S3 액세스 패턴은 가변적이며 빠르게 변경됩니다. 데이터는 즉시 사용할 수 있어야 하며 최대 3개월 동안 액세스할 수 있어야 합니다. 회사는 검색 시간을 늘리지 않는 가장 비용 효율적인 솔루션이 필요합니다.회사는 이러한 요구 사항을 충족하기 위해 어떤 S3 스토리지 클래스를 사용해야 합니까?
A. S3 지능형 계층화(S3 Intelligent-Tiering)
B. S3 Glacier 즉시 검색(S3 Glacier Instant Retrieval)
C. S3 표준(S3 Standard)
D. S3 Standard-Infrequent Access(S3 Standard-IA)
Answer: A
옵션 A는 액세스 패턴이 변화하는 개체를 위해 설계되었지만 특히 액세스 패턴이 가변적이고 빠르게 변경되는 경우 데이터의 장기 저장을 위한 가장 비용 효율적인 솔루션이 아닐 수 있습니다.
옵션 B는 장기 아카이브 저장에 최적화되어 있으며 회사에서 요구하는 즉각적인 액세스를 제공하지 않을 수 있습니다. Glacier 스토리지에서 데이터를 검색하면 일반적으로 다른 스토리지 클래스에 비해 검색 시간이 더 오래 걸립니다.
옵션 C는 즉각적인 가용성과 데이터에 대한 빠른 액세스를 위한 적절한 선택입니다. 높은 내구성, 가용성 및 낮은 대기 시간 액세스를 제공하므로 회사의 요구 사항에 적합합니다. 그러나 장기 보관을 위한 가장 비용 효율적인 옵션은 아닙니다.
옵션 D는 특히 자주 액세스하지 않는 데이터의 경우 S3 Standard에 비해 비용 효율적인 스토리지 클래스입니다. 그러나 데이터에 대한 액세스 패턴이 가변적이고 빠르게 변경되기 때문에 S3 Standard-IA는 빈번한 액세스에 대한 추가 검색 비용이 발생하므로 가장 비용 효율적인 솔루션이 아닐 수 있습니다.
Q213.회사에서 새로운 모바일 앱을 개발하고 있습니다. 회사는 교차 사이트 스크립팅 또는 SQL 주입과 같은 일반적인 애플리케이션 수준 공격으로부터 ALB(Application Load Balancer)를 보호하기 위해 적절한 트래픽 필터링을 구현해야 합니다. 이 회사는 최소한의 인프라와 운영 인력을 보유하고 있습니다. 회사는 AWS 환경의 서버를 관리, 업데이트 및 보호하는 책임을 줄여야 합니다.이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 권장해야 합니까? ★★
A. AWS WAF 규칙을 구성하고 이를 ALB와 연결합니다.
B. 퍼블릭 호스팅이 활성화된 Amazon S3를 사용하여 애플리케이션을 배포합니다.
C. AWS Shield Advanced를 배포하고 ALB를 보호된 리소스로 추가합니다.
D. 타사 방화벽을 실행하는 Amazon EC2 인스턴스로 트래픽을 보낸 다음 트래픽을 현재 ALB로 전달하는 새 ALB를 생성합니다.
Answer: A
AWS WAF 규칙을 구성하고 이를 ALB와 연결함으로써 회사는 악성 트래픽이 애플리케이션에 도달하기 전에 필터링하고 차단할 수 있습니다. AWS WAF는 사전 구성된 규칙 세트를 제공하고 사용자 지정 규칙 생성을 허용하여 XSS 및 SQL 주입과 같은 일반적인 취약성으로부터 보호합니다.
옵션 B는 애플리케이션 수준 공격으로부터 보호하는 데 필요한 보안 및 트래픽 필터링 기능을 제공하지 않습니다. 보안 조치를 구현하는 것보다 정적 콘텐츠를 호스팅하는 데 더 적합합니다.
옵션 C는 XSS 또는 SQL 주입과 같은 애플리케이션 수준 공격이 아닌 DDoS 보호에 중점을 둡니다. AWS Shield Advanced는 시나리오에 언급된 특정 요구 사항을 다루지 않습니다.
옵션 D는 추가 인프라를 유지하고 보호하는 것과 관련되며, 이는 책임을 줄이고 최소한의 운영 직원에 의존해야 한다는 요구 사항에 위배됩니다.
Q214.회사의 보고 시스템은 매일 수백 개의 .csv 파일을 Amazon S3 버킷에 전달합니다. 회사는 이러한 파일을 Apache Parquet 형식으로 변환하고 변환된 데이터 버킷에 파일을 저장해야 합니다.
최소한의 개발 노력으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★★
A. Apache Spark가 설치된 Amazon EMR 클러스터를 생성합니다. 데이터를 변환하는 Spark 애플리케이션을 작성합니다. EMRFS(EMR 파일 시스템)를 사용하여 변환된 데이터 버킷에 파일을 씁니다.
B. AWS Glue 크롤러를 생성하여 데이터를 검색합니다. AWS Glue 추출, 변환 및 로드(ETL) 작업을 생성하여 데이터를 변환합니다. 출력 단계에서 변환된 데이터 버킷을 지정합니다.
C. AWS Batch를 사용하여 Bash 구문으로 작업 정의를 생성하여 데이터를 변환하고 데이터를 변환된 데이터 버킷으로 출력합니다. 작업 정의를 사용하여 작업을 제출합니다. 어레이 작업을 작업 유형으로 지정합니다.
D. 데이터를 변환하고 변환된 데이터 버킷으로 데이터를 출력하는 AWS Lambda 함수를 생성합니다. S3 버킷에 대한 이벤트 알림을 구성합니다. 이벤트 알림의 대상으로 Lambda 함수를 지정합니다.
Answer: B
AWS Glue는 분석을 위해 데이터를 준비하고 변환하는 프로세스를 간소화하는 완전 관리형 ETL 서비스입니다. AWS Glue를 사용하려면 다른 옵션에 비해 최소한의 개발 노력이 필요합니다.
Q215.회사는 데이터 센터의 NAS(Network Attached Storage)에 700TB의 백업 데이터를 저장하고 있습니다. 이 백업 데이터는 드문 규제 요청을 위해 액세스할 수 있어야 하며 7년 동안 보관해야 합니다. 회사는 이 백업 데이터를 데이터 센터에서 AWS로 마이그레이션하기로 결정했습니다. 마이그레이션은 1개월 이내에 완료되어야 합니다. 회사는 데이터 전송에 사용할 수 있는 공용 인터넷 연결에 500Mbps의 전용 대역폭을 가지고 있습니다.
최저 비용으로 데이터를 마이그레이션하고 저장하려면 솔루션 설계자가 무엇을 해야 합니까?★★
A. 데이터를 전송할 AWS Snowball 디바이스를 주문합니다. 수명 주기 정책을 사용하여 파일을 Amazon S3 Glacier Deep Archive로 전환합니다.
B. 데이터 센터와 Amazon VPC 간에 VPN 연결을 배포합니다. AWS CLI를 사용하여 온프레미스에서 Amazon S3 Glacier로 데이터를 복사합니다.
C. 500Mbps AWS Direct Connect 연결을 프로비저닝하고 데이터를 Amazon S3로 전송합니다. 수명 주기 정책을 사용하여 파일을 Amazon S3 Glacier Deep Archive로 전환합니다.
D. AWS DataSync를 사용하여 데이터를 전송하고 온프레미스에 DataSync 에이전트를 배포합니다. DataSync 작업을 사용하여 온프레미스 NAS 스토리지에서 Amazon S3 Glacier로 파일을 복사합니다.
Answer:A
700TB나 되는 대용량을 Snowball Edge Device를 사용하지 않고 네트워크 상으로 옮기는 것은 굉장히 많은 시간이 소요됨.
Q216.회사에는 Amazon S3 버킷에 수백만 개의 객체가 있는 서버리스 웹 사이트가 있습니다. 회사는 S3 버킷을 Amazon CloudFront 배포의 오리진으로 사용합니다. 회사는 개체가 로드되기 전에 S3 버킷에 암호화를 설정하지 않았습니다. 솔루션 설계자는 모든 기존 객체와 향후 S3 버킷에 추가되는 모든 객체에 대해 암호화를 활성화해야 합니다.최소한의 노력으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?★★
A. 새 S3 버킷을 생성합니다. 새 S3 버킷에 대한 기본 암호화 설정을 켭니다. 모든 기존 개체를 임시 로컬 저장소에 다운로드합니다. 새 S3 버킷에 객체를 업로드합니다.
B. S3 버킷의 기본 암호화 설정을 켭니다. S3 Inventory 기능을 사용하여 암호화되지 않은 객체를 나열하는 .csv 파일을 생성합니다. 복사 명령을 사용하여 해당 객체를 암호화하는 S3 배치 작업 작업을 실행합니다.
C. AWS Key Management Service(AWS KMS)를 사용하여 새 암호화 키를 생성합니다. AWS KMS 관리형 암호화 키(SSE-KMS)로 서버 측 암호화를 사용하도록 S3 버킷의 설정을 변경합니다. S3 버킷에 대한 버전 관리를 켭니다.
D. AWS Management Console에서 Amazon S3로 이동합니다. S3 버킷의 객체를 찾습니다. 암호화 필드를 기준으로 정렬합니다. 암호화되지 않은 각 개체를 선택합니다. 수정 버튼을 사용하여 S3 버킷의 모든 암호화되지 않은 객체에 기본 암호화 설정을 적용합니다.
Answer:B
S3에서 기본 암호화 설정을 활성화하면 새로 추가된 모든 객체가 자동으로 암호화됩니다. 기존 객체를 암호화하기 위해 S3 Inventory 기능을 사용하여 암호화되지 않은 객체 목록을 생성할 수 있습니다. 그런 다음 암호화를 적용하는 동안 해당 객체를 복사하기 위해 S3 배치 작업 작업을 실행할 수 있습니다.
C(X). AWS KMS로 SSE를 활성화하는 것은 S3에서 객체를 암호화하는 유효한 접근 방식이지만 기존 객체를 암호화해야 하는 요구 사항을 해결하지는 않습니다. 버킷에 추가된 새 객체에만 암호화를 적용합니다.
Q217.회사는 Application Load Balancer 뒤의 Amazon EC2 인스턴스에서 글로벌 웹 애플리케이션을 실행합니다. 애플리케이션은 Amazon Aurora에 데이터를 저장합니다. 회사는 재해 복구 솔루션을 만들어야 하며 최대 30분의 다운타임과 잠재적인 데이터 손실을 허용할 수 있습니다. 솔루션은 기본 인프라가 정상일 때 부하를 처리할 필요가 없습니다.솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까? ★★
A. 필요한 인프라 요소가 있는 애플리케이션을 배치합니다. Amazon Route 53을 사용하여 활성-수동 장애 조치를 구성합니다. 두 번째 AWS 리전에서 Aurora 복제본을 생성합니다.
B. 두 번째 AWS 리전에서 애플리케이션의 축소된 배포를 호스팅합니다. Amazon Route 53을 사용하여 활성-활성 장애 조치를 구성합니다. 두 번째 리전에서 Aurora 복제본을 생성합니다.
C. 두 번째 AWS 리전에서 기본 인프라를 복제합니다. Amazon Route 53을 사용하여 활성-활성 장애 조치를 구성합니다. 최신 스냅샷에서 복원된 Aurora 데이터베이스를 생성합니다.
D. AWS Backup으로 데이터를 백업합니다. 백업을 사용하여 두 번째 AWS 리전에 필요한 인프라를 생성합니다. Amazon Route 53을 사용하여 활성-수동 장애 조치를 구성합니다. 두 번째 리전에서 Aurora 두 번째 기본 인스턴스를 생성합니다.
Answer: A
솔루션은 기본 인프라가 정상일 때 부하를 처리할 필요가 없다고 했으므로 Active/Passive Failover를 사용하면 됨. 따라서 A,D 둘 중 하나가 답.
A(O) : Q: Amazon Aurora는 교차 리전 복제를 지원하나요? 예. 물리적 또는 논리적 복제를 사용하여 교차 리전 Aurora 복제본을 설정할 수 있습니다. Amazon RDS 콘솔에서 교차 리전 복제본을 새로운 기본 복제본으로 승격할 수 있습니다. 논리적(binlog) 복제의 경우, 승격 프로세스는 워크로드에 따라 다르지만 보통 몇 분 정도 걸립니다. 승격 프로세스를 시작하면 교차 리전 복제가 중단됩니다. https://aws.amazon.com/ko/rds/aurora/faqs/
D(X) : 굳이 AWS Backup을 사용하지 않아도 오로라 교차 리전 복제본 (Aurora Cross Region Replica)를 사용하면 됨. 그리고 글로벌 웹 애플리케이션을 사용한다고 했는데 이런 경우엔 데이터를 복제해 인스턴스를 다른 리전에 생성하는 것보단 복제본을 사용해서 각 지역에서 읽기 쿼리를 할 때 지연시간을 줄이는 것이 더 좋음.
Q218.회사에는 탄력적 IP 주소가 있는 퍼블릭 서브넷의 Amazon EC2 인스턴스에서 실행되는 웹 서버가 있습니다. 기본 보안 그룹은 EC2 인스턴스에 할당됩니다. 모든 트래픽을 차단하도록 기본 네트워크 ACL이 수정되었습니다. 솔루션 설계자는 포트 443을 통해 어디에서나 웹 서버에 액세스할 수 있도록 해야 합니다.
이 작업을 수행할 단계 조합은 무엇입니까? (2개 선택) ★★★★
A. 소스 0.0.0.0/0에서 TCP 포트 443을 허용하는 규칙으로 보안 그룹을 생성합니다.
B. 대상 0.0.0.0/0에 대한 TCP 포트 443을 허용하는 규칙으로 보안 그룹을 생성합니다.
C. 소스 0.0.0.0/0에서 TCP 포트 443을 허용하도록 네트워크 ACL을 업데이트합니다.
D. 소스 0.0.0.0/0에서 대상 0.0.0.0/0으로 인바운드/아웃바운드 TCP 포트 443을 허용하도록 네트워크 ACL을 업데이트합니다.
E. 소스 0.0.0.0/0에서 인바운드 TCP 포트 443을 허용하고 대상 0.0.0.0/0으로 아웃바운드 TCP 포트 32768-65535를 허용하도록 네트워크 ACL을 업데이트합니다.
Answer: A, E
포트 443의 모든 위치에서 웹 서버에 액세스할 수 있도록 하는 작업을 수행하는 단계 조합은 소스 0.0.0.0/0(A)에서 TCP 포트 443을 허용하고 네트워크 ACL을 업데이트하는 규칙으로 보안 그룹을 생성하는 것입니다. 소스 0.0.0.0/0(C)에서 인바운드 TCP 포트 443을 허용합니다.
이렇게 하면 포트 443에 대한 트래픽이 보안 그룹 수준과 네트워크 ACL 수준 모두에서 허용되어 포트 443의 모든 위치에서 웹 서버에 액세스할 수 있습니다.
Q219.회사의 애플리케이션에 성능 문제가 있습니다. 애플리케이션은 상태 저장이며 Amazon EC2 인스턴스에서 인 메모리 작업을 완료해야 합니다. 이 회사는 AWS CloudFormation을 사용하여 인프라를 배포하고 M5 EC2 인스턴스 제품군을 사용했습니다. 트래픽이 증가함에 따라 애플리케이션 성능이 저하되었습니다. 사용자는 사용자가 애플리케이션에 액세스하려고 할 때 지연을 보고합니다.운영상 가장 효율적인 방식으로 이러한 문제를 해결하는 솔루션은 무엇입니까?★★
A. Auto Scaling 그룹에서 실행되는 T3 EC2 인스턴스로 EC2 인스턴스를 교체합니다. AWS Management Console을 사용하여 변경합니다.
B. Auto Scaling 그룹에서 EC2 인스턴스를 실행하도록 CloudFormation 템플릿을 수정합니다. 증가가 필요한 경우 Auto Scaling 그룹의 원하는 용량과 최대 용량을 수동으로 늘립니다.
C. CloudFormation 템플릿을 수정합니다. EC2 인스턴스를 R5 EC2 인스턴스로 교체합니다. Amazon CloudWatch 내장 EC2 메모리 메트릭을 사용하여 향후 용량 계획을 위해 애플리케이션 성능을 추적합니다.
D. CloudFormation 템플릿을 수정합니다. EC2 인스턴스를 R5 EC2 인스턴스로 교체합니다. EC2 인스턴스에 Amazon CloudWatch 에이전트를 배포하여 향후 용량 계획을 위한 사용자 지정 애플리케이션 지연 시간 메트릭을 생성합니다.
Answer: D
M5 인스턴스를 메모리 집약적인 워크로드에 최적화된 R5 인스턴스로 교체하면 애플리케이션에서 메모리 용량과 성능을 높일 수 있습니다.
또한 EC2 인스턴스에 CloudWatch 에이전트를 배포하면 애플리케이션 성능에 대한 중요한 통찰력을 제공할 수 있는 사용자 지정 애플리케이션 대기 시간 메트릭을 생성할 수 있습니다.
이 솔루션은 적절한 인스턴스 유형을 활용하고 더 나은 모니터링 및 향후 용량 계획을 위해 사용자 지정 애플리케이션 메트릭을 수집하여 성능 문제를 효율적으로 해결합니다.
C. 내장된 EC2 메모리 메트릭에만 의존하면 메모리 내 작업을 최적화하는 데 충분한 세분성을 제공하지 못할 수 있습니다.
Q220.솔루션 설계자는 Amazon API Gateway를 사용하여 사용자의 요청을 수신할 새 API를 설계하고 있습니다. 요청량은 매우 다양합니다. 단일 요청을 받지 않고 몇 시간이 지날 수 있습니다. 데이터 처리는 비동기식으로 이루어지지만 요청이 이루어진 후 몇 초 이내에 완료되어야 합니다.최저 비용으로 요구 사항을 제공하기 위해 솔루션 설계자가 API를 호출하도록 해야 하는 컴퓨팅 서비스는 무엇입니까?★★
A. AWS Glue 작업
B. AWS Lambda 함수
C. Amazon Elastic Kubernetes Service(Amazon EKS)에서 호스팅되는 컨테이너화된 서비스
D. Amazon EC2와 함께 Amazon ECS에서 호스팅되는 컨테이너화된 서비스
Answer: B
API Gateway + Lambda는 서버리스 아키텍처를 사용하는 최신 애플리케이션을 위한 완벽한 솔루션입니다.
Q221.회사는 Amazon Linux EC2 인스턴스 그룹에서 애플리케이션을 실행합니다. 규정 준수를 위해 회사는 모든 애플리케이션 로그 파일을 7년 동안 보관해야 합니다. 로그 파일은 모든 파일에 동시에 액세스할 수 있어야 하는 보고 도구로 분석됩니다.이러한 요구 사항을 가장 비용 효율적으로 충족하는 스토리지 솔루션은 무엇입니까?★★
A. Amazon Elastic Block Store(Amazon EBS)
B. Amazon Elastic File System(Amazon EFS)
C. Amazon EC2 인스턴스 스토어
D. Amazon S3
Answer: D
비용상 S3최고
장기보존, 동시접속, 가성비 등의 요구사항을 고려할 때 S3가 가장 적합하고 가성비 좋은 스토리지 솔루션입니다.
Q222.회사는 회사의 AWS 계정에서 작업을 수행하기 위해 외부 공급업체를 고용했습니다. 벤더는 벤더가 소유한 AWS 계정에서 호스팅되는 자동화 도구를 사용합니다. 벤더는 회사의 AWS 계정에 대한 IAM 액세스 권한이 없습니다.솔루션 설계자는 공급업체에 이 액세스 권한을 어떻게 부여해야 합니까?★★
A. 공급업체의 IAM 역할에 대한 액세스 권한을 위임하려면 회사 계정에서 IAM 역할을 생성합니다. 벤더가 요구하는 권한에 대한 역할에 적절한 IAM 정책을 연결합니다.
B. 암호 복잡성 요구 사항을 충족하는 암호를 사용하여 회사 계정에 IAM 사용자를 만듭니다. 벤더가 요구하는 권한에 대해 적절한 IAM 정책을 사용자에게 연결합니다.
C. 회사 계정에 IAM 그룹을 생성합니다. 공급업체 계정의 도구 IAM 사용자를 그룹에 추가합니다. 공급업체에 필요한 권한에 대해 적절한 IAM 정책을 그룹에 연결합니다.
D. IAM콘솔에서 공급자 유형으로 "AWS 계정"을 선택하여 새 자격 증명 공급자를 만듭니다. 공급업체의 AWS 계정 ID와 사용자 이름을 제공합니다. 벤더가 요구하는 권한에 대해 적절한 IAM 정책을 새 제공자에 연결하십시오.
Answer: A
IAM 역할을 생성하고 공급업체의 IAM 역할에 대한 액세스 권한을 위임함으로써 계정 간에 신뢰 관계를 설정합니다. 이렇게 하면 공급업체의 자동화 도구가 회사 계정의 역할을 맡고 필요한 리소스에 액세스할 수 있습니다.
Q223.한 회사에서 Java Spring Boot 애플리케이션을 프라이빗 서브넷의 Amazon Elastic Kubernetes Service(Amazon EKS)에서 실행되는 포드로 배포했습니다. 애플리케이션은 Amazon DynamoDB 테이블에 데이터를 써야 합니다. 솔루션 설계자는 애플리케이션이 인터넷에 트래픽을 노출하지 않고 DynamoDB 테이블과 상호 작용할 수 있는지 확인해야 합니다.이 목표를 달성하기 위해 솔루션 설계자는 어떤 단계 조합을 수행해야 합니까? (2개 선택)★★
A. EKS 포드에 충분한 권한이 있는 IAM 역할을 연결합니다.
B. EKS 포드에 충분한 권한이 있는 IAM 사용자를 연결합니다.
C. 프라이빗 서브넷의 네트워크 ACL을 통해 DynamoDB 테이블에 대한 아웃바운드 연결을 허용합니다.
D. DynamoDB용 VPC 엔드포인트를 생성합니다.
E. Java Spring Boot 코드에 액세스 키를 삽입합니다.
Answer: A,D
A. IAM 역할을 EKS 포드에 연결하면 포드가 DynamoDB에 액세스하는 데 필요한 권한을 부여할 수 있습니다. IAM 역할에는 DynamoDB 테이블에 대한 액세스를 허용하는 적절한 정책이 있어야 합니다.
IAM 역할 : AWS 리소스가 무엇을 할 수 있는지를 정의, 역할은 서비스에 부여가능
D. DynamoDB용 VPC 엔드포인트를 생성하면 EKS 포드가 인터넷 연결 없이도 VPC 내에서 비공개로 DynamoDB에 액세스할 수 있습니다. VPC 엔드포인트는 DynamoDB에 대한 직접적이고 안전한 연결을 제공하므로 트래픽이 인터넷을 통해 흐를 필요가 없습니다.
Q224.한 회사가 최근 단일 AWS 리전의 Amazon EC2 인스턴스에서 애플리케이션을 다시 호스팅하여 웹 애플리케이션을 AWS로 마이그레이션했습니다. 이 회사는 응용 프로그램 아키텍처를 고가용성 및 내결함성을 갖도록 재설계하려고 합니다. 트래픽은 실행 중인 모든 EC2 인스턴스에 무작위로 도달해야 합니다.회사는 이러한 요구 사항을 충족하기 위해 어떤 조합의 단계를 수행해야 합니까? (2개 선택) ★★
A. Amazon Route 53 장애 조치 라우팅 정책을 만듭니다.
B. Amazon Route 53 가중 라우팅 정책을 생성합니다.
C. Amazon Route 53 다중값 응답 라우팅 정책을 생성합니다.
D. 3개의 EC2 인스턴스를 시작합니다. 하나의 가용 영역에 있는 2개의 인스턴스와 다른 가용 영역에 있는 하나의 인스턴스입니다.
E. 4개의 EC2 인스턴스를 시작합니다. 하나의 가용 영역에 2개의 인스턴스와 다른 가용 영역에 2개의 인스턴스가 있습니다.
Answer: C, E
C. Route 53의 다중 응답 라우팅 정책을 사용하면 DNS 레코드에 대한 다중 값을 구성할 수 있으며 Route 53은 다중 임의 값으로 DNS 쿼리에 응답합니다. 이를 통해 사용 가능한 EC2 인스턴스 간에 트래픽을 무작위로 분산할 수 있습니다.
E. 다른 AZ에서 EC2 인스턴스를 시작하면 고가용성과 내결함성을 얻을 수 있습니다. 4개의 인스턴스(각 AZ에 2개)를 시작하면 트래픽 로드를 처리하고 원하는 수준의 가용성을 유지하기에 충분한 리소스가 있습니다.
Q225.미디어 회사는 온프레미스에서 사용자 활동 데이터를 수집하고 분석합니다. 회사는 이 기능을 AWS로 마이그레이션하려고 합니다. 사용자 활동 데이터 저장소는 계속해서 성장하여 크기가 페타바이트가 될 것입니다. 회사는 SQL을 사용하여 기존 데이터 및 새 데이터의 온디맨드 분석을 용이하게 하는 고가용성 데이터 수집 솔루션을 구축해야 합니다.최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?★★
A. 활동 데이터를 Amazon Kinesis 데이터 스트림으로 보냅니다. 데이터를 Amazon S3 버킷으로 전달하도록 스트림을 구성합니다
B. 활동 데이터를 Amazon Kinesis Data Firehose 전송 스트림으로 보냅니다. 데이터를 Amazon Redshift 클러스터로 전달하도록 스트림을 구성합니다.
C. 활동 데이터를 Amazon S3 버킷에 배치합니다. 데이터가 S3 버킷에 도착하면 데이터에서 AWS Lambda 함수를 실행하도록 Amazon S3를 구성합니다.
D. 여러 가용 영역에 분산된 Amazon EC2 인스턴스에서 수집 서비스를 생성합니다. 데이터를 Amazon RDS 다중 AZ 데이터베이스로 전달하도록 서비스를 구성합니다.
Answer: B
Amazon Redshift는 클라우드에서 완벽하게 관리되는 페타바이트 규모의 데이터 웨어하우스 서비스입니다.
Q226.회사는 Amazon EC2 인스턴스에서 실행되는 RESTful 웹 서비스 애플리케이션을 사용하여 수천 개의 원격 장치에서 데이터를 수집합니다. EC2 인스턴스는 원시 데이터를 수신하고 원시 데이터를 변환하며 모든 데이터를 Amazon S3 버킷에 저장합니다. 원격 장치의 수는 곧 수백만 개로 증가할 것입니다. 이 회사는 운영 오버헤드를 최소화하는 확장성이 뛰어난 솔루션이 필요합니다.이러한 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 단계 조합을 수행해야 합니까? (2개 선택) ★★
A. AWS Glue를 사용하여 Amazon S3에서 원시 데이터를 처리합니다.
B. Amazon Route 53을 사용하여 트래픽을 다른 EC2 인스턴스로 라우팅합니다.
C. 들어오는 데이터의 양을 수용하기 위해 더 많은 EC2 인스턴스를 추가합니다.
D. 원시 데이터를 Amazon Simple Queue Service(Amazon SQS)로 보냅니다. EC2 인스턴스를 사용하여 데이터를 처리합니다.
E. Amazon API Gateway를 사용하여 원시 데이터를 Amazon Kinesis 데이터 스트림으로 보냅니다. 데이터 스트림을 소스로 사용하여 데이터를 Amazon S3에 전달하도록 Amazon Kinesis Data Firehose를 구성합니다.
Answer: A, E
"RESTful 웹 서비스" => API 게이트웨이.
"EC2 인스턴스는 원시 데이터를 수신하고, 원시 데이터를 변환하고, 모든 데이터를 Amazon S3 버킷에 저장합니다."
=> (Extract - Transform - Load)가 있는 GLUE
Q227.회사는 AWS CloudTrail 로그를 3년 동안 보관해야 합니다. 회사는 상위 계정의 AWS Organizations를 사용하여 AWS 계정 집합에 CloudTrail을 적용하고 있습니다. CloudTrail 대상 S3 버킷은 S3 버전 관리가 활성화된 상태로 구성됩니다. 3년 후 현재 객체를 삭제하는 S3 수명 주기 정책이 있습니다.S3 버킷 사용 4년차 이후 S3 버킷 지표는 개체 수가 계속 증가했음을 보여줍니다. 그러나 S3 버킷에 전달되는 새 CloudTrail 로그의 수는 일관되게 유지되었습니다.가장 비용 효율적인 방식으로 3년 이상 된 개체를 삭제하는 솔루션은 무엇입니까? ★★★
A. 3년 후에 개체가 만료되도록 조직의 중앙 집중식 CloudTrail 추적을 구성합니다.
B. 현재 버전뿐만 아니라 이전 버전도 삭제하도록 S3 수명 주기 정책을 구성합니다.
C. Amazon S3에서 3년 이상 된 객체를 열거하고 삭제하는 AWS Lambda 함수를 생성합니다.
D. 상위 계정을 S3 버킷으로 전달되는 모든 객체의 소유자로 구성합니다.
Answer: B
이전 버전과 현재 버전을 삭제하도록 S3 수명 주기 정책을 구성하면 이전 버전의 CloudTrail 로그가 삭제됩니다. 이렇게 하면 3년 이상 된 객체가 S3 버킷에서 제거되어 객체 수를 줄이고 스토리지 비용을 제어할 수 있습니다.
Q228.회사에는 여러 모니터링 장치에서 실시간 데이터를 수신하는 API가 있습니다. API는 나중에 분석할 수 있도록 이 데이터를 Amazon RDS DB 인스턴스에 저장합니다. 모니터링 장치가 API로 보내는 데이터의 양은 변동합니다. 트래픽이 많은 기간 동안 API는 종종 시간 초과 오류를 반환합니다.로그를 검사한 후 회사는 데이터베이스가 API에서 오는 쓰기 트래픽 볼륨을 처리할 수 없음을 확인합니다. 솔루션 설계자는 데이터베이스에 대한 연결 수를 최소화하고 트래픽이 많은 기간 동안 데이터가 손실되지 않도록 해야 합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. 사용 가능한 메모리가 더 많은 인스턴스 유형으로 DB 인스턴스의 크기를 늘리십시오.
B. DB 인스턴스를 다중 AZ DB 인스턴스로 수정합니다. 모든 활성 RDS DB 인스턴스에 쓰도록 애플리케이션을 구성합니다.
C. 수신 데이터를 Amazon Simple Queue Service(Amazon SQS) 대기열에 쓰도록 API를 수정합니다. Amazon SQS가 호출하는 AWS Lambda 함수를 사용하여 대기열에서 데이터베이스로 데이터를 씁니다.
D. 수신 데이터를 Amazon Simple Notification Service(Amazon SNS) 주제에 쓰도록 API를 수정합니다. Amazon SNS가 호출하는 AWS Lambda 함수를 사용하여 주제에서 데이터베이스로 데이터를 씁니다.
Amazon SQS를 사용하면 API가 데이터를 데이터베이스에 직접 쓰지 않고 대기열에 쓰기 때문에 데이터베이스에 대한 연결 수를 최소화하는 데 도움이 됩니다. 또한 대기열에서 데이터베이스로 데이터를 쓰기 위해 Amazon SQS가 호출하는 AWS Lambda 함수를 사용하면 대기열이 API와 데이터베이스 사이에서 버퍼 역할을 하므로 트래픽이 많은 기간 동안 데이터가 손실되지 않도록 하는 데 도움이 됩니다.
Q229.회사는 MySQL 데이터베이스를 실행하는 자체 Amazon EC2 인스턴스를 관리합니다. 회사는 수요가 증가하거나 감소함에 따라 복제 및 확장을 수동으로 관리하고 있습니다. 회사는 필요에 따라 데이터베이스 계층에서 컴퓨팅 용량을 추가하거나 제거하는 프로세스를 간소화하는 새로운 솔루션이 필요합니다. 또한 솔루션은 최소한의 운영 노력으로 향상된 성능, 확장성 및 내구성을 제공해야 합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까? ★
A. 데이터베이스를 Aurora MySQL용 Amazon Aurora Serverless로 마이그레이션합니다
B. 데이터베이스를 Aurora PostgreSQL용 Amazon Aurora Serverless로 마이그레이션합니다.
C. 데이터베이스를 하나의 더 큰 MySQL 데이터베이스로 결합합니다. 더 큰 EC2 인스턴스에서 더 큰 데이터베이스를 실행합니다.
D. 데이터베이스 계층에 대한 EC2 Auto Scaling 그룹을 생성합니다. 기존 데이터베이스를 새 환경으로 마이그레이션합니다.
Answer: A
데이터베이스를 Aurora Serverless로 마이그레이션하면 자동 조정 및 복제 기능이 제공됩니다. Aurora Serverless는 워크로드에 따라 자동으로 용량을 조정하므로 필요에 따라 컴퓨팅 용량을 원활하게 추가하거나 제거할 수 있습니다. 또한 복제 및 확장을 수동으로 관리할 필요 없이 향상된 성능, 내구성 및 고가용성을 제공합니다.
Q230.회사는 사용 중인 두 개의 NAT 인스턴스가 더 이상 회사 애플리케이션에 필요한 트래픽을 지원할 수 없을 것이라고 우려합니다. 솔루션 설계자는 가용성이 높고 내결함성이 있으며 자동으로 확장 가능한 솔루션을 구현하려고 합니다.솔루션 설계자는 무엇을 추천해야 합니까?
A. 2개의 NAT 인스턴스를 제거하고 동일한 가용 영역에 있는 2개의 NAT 게이트웨이로 교체합니다.
B. 다른 가용 영역의 NAT 인스턴스에 대해 Network Load Balancer와 함께 Auto Scaling 그룹을 사용합니다.
C. 2개의 NAT 인스턴스를 제거하고 서로 다른 가용 영역에 있는 2개의 NAT 게이트웨이로 교체합니다.
D. 두 개의 NAT 인스턴스를 서로 다른 가용 영역의 스팟 인스턴스로 교체하고 Network Load Balancer를 배포합니다.
Answer: C
여러 가용 영역에 리소스가 있고 하나의 NAT 게이트웨이를 공유하는 경우 NAT 게이트웨이의 가용 영역이 다운되면 다른 가용 영역의 리소스가 인터넷에 액세스할 수 없게 됩니다. 가용 영역 독립적 아키텍처를 생성하려면 각 가용 영역에 NAT 게이트웨이를 생성하고 리소스가 동일한 가용 영역에서 NAT 게이트웨이를 사용하도록 라우팅을 구성합니다.