AWS/자격증

[AWS] SAA -C03 DUMP 로 공부하자 12(411~440)

itat-yoon 2024. 8. 18. 16:10
Q411.회사에 산발적인 사용 패턴을 가진 웹 애플리케이션이 있습니다. 매달 초에는 사용량이 많고, 매주 초에는 보통 사용량이 있으며, 주중에는 예측할 수 없는 사용량이 있습니다. 이 애플리케이션은 웹 서버와 데이터 센터 내에서 실행되는 MySQL 데이터베이스 서버로 구성됩니다. 이 회사는 애플리케이션을 AWS 클라우드로 이동하려고 하며 데이터베이스 수정이 필요하지 않은 비용 효율적인 데이터베이스 플랫폼을 선택해야 합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★★★
A. Amazon DynamoDB
B. MySQL용 Amazon RDS
C. MySQL 호환 Amazon Aurora Serverless
D. Auto Scaling 그룹의 Amazon EC2에 배포된 MySQL
더보기

Answer: C

Amazon RDS for MySQL은 클라우드에서 MySQL 배포를 쉽게 설정, 운영 및 확장할 수 있는 완전관리형 관계형 데이터베이스 서비스입니다. Amazon Aurora Serverless Amazon Aurora(MySQL 호환 버전)에 대한 온디맨드 자동 확장 구성으로, 데이터베이스가 애플리케이션의 요구 사항에 따라 자동으로 시작, 종료 및 용량 확장 또는 축소됩니다.간헐적이거나 예측할 수 없는 워크로드를 위한 간단하고 비용 효율적인 옵션입니다.

C: 오로라 서버리스(Aurora Serverless)는 MySQL 호환 관계형 데이터베이스 엔진으로, 애플리케이션 사용량에 따라 컴퓨팅 및 메모리 리소스를 자동으로 확장합니다. 초기 비용이나 약속이 필요하지 않습니다.
A: DynamoDB는 NoSQL입니다
B: RDS 클래스 고정비
D: 더 많은 작업이 필요합니다

Q412.이미지 호스팅 회사는 객체를 Amazon S3 버킷에 저장합니다. 회사는 S3 버킷의 개체가 대중에게 우발적으로 노출되는 것을 방지하려고 합니다. 전체 AWS 계정의 모든 S3 객체는 비공개로 유지되어야 합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★★★
A. Amazon GuardDuty를 사용하여 S3 버킷 정책을 모니터링합니다. AWS Lambda 함수를 사용하여 객체를 공개하는 변경 사항을 수정하는 자동 수정 작업 규칙을 생성합니다.
B. AWS Trusted Advisor를 사용하여 공개적으로 액세스 가능한 S3 버킷을 찾습니다. 변경 사항이 감지되면 Trusted Advisor에서 이메일 알림을 구성합니다. 퍼블릭 액세스를 허용하는 경우 S3 버킷 정책을 수동으로 변경합니다.
C. AWS Resource Access Manager를 사용하여 공개적으로 액세스 가능한 S3 버킷을 찾습니다. 변경이 감지되면 Amazon Simple Notification Service(Amazon SNS)를 사용하여 AWS Lambda 함수를 호출합니다. 프로그래밍 방식으로 변경 사항을 수정하는 Lambda 함수를 배포합니다.
D. 계정 수준에서 S3 퍼블릭 액세스 차단 기능을 사용합니다. AWS Organizations를 사용하여 IAM 사용자가 설정을 변경하지 못하도록 하는 서비스 제어 정책(SCP)을 생성합니다. 계정에 SCP를 적용합니다.
더보기

Answer: D

S3 퍼블릭 액세스 차단 기능을 사용하면 계정 내의 S3 버킷 및 객체에 대한 퍼블릭 액세스를 제한할 수 있습니다. 버킷 정책 설정에 관계없이 계정 수준에서 이 기능을 활성화하여 S3 버킷이 공개되지 않도록 할 수 있습니다. AWS Organizations를 사용하여 IAM 사용자가 이 설정을 변경하지 못하도록 SCP(서비스 제어 정책)를 계정에 적용하여 모든 S3 객체가 비공개로 유지되도록 할 수 있습니다. 이는 최소한의 운영 오버헤드가 필요한 간단하고 효과적인 솔루션입니다.

Q413.한 전자상거래 회사에서 사용자 트래픽이 증가하고 있습니다. 회사의 스토어는 웹 계층과 별도의 데이터베이스 계층으로 구성된 2계층 웹 애플리케이션으로 Amazon EC2 인스턴스에 배포됩니다. 트래픽이 증가함에 따라 회사는 아키텍처로 인해 사용자에게 적시에 마케팅 및 주문 확인 이메일을 보내는 데 상당한 지연이 발생하고 있음을 알게 되었습니다. 이 회사는 복잡한 이메일 전송 문제를 해결하는 데 소요되는 시간을 줄이고 운영 오버헤드를 최소화하기를 원합니다.솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A. 이메일 처리 전용 EC2 인스턴스를 사용하여 별도의 애플리케이션 계층을 만듭니다.
B. Amazon Simple Email Service(Amazon SES)를 통해 이메일을 보내도록 웹 인스턴스를 구성합니다.
C. Amazon Simple Notification Service(Amazon SNS)를 통해 이메일을 보내도록 웹 인스턴스를 구성합니다.
D. 이메일 처리 전용 EC2 인스턴스를 사용하여 별도의 애플리케이션 계층을 생성합니다. Auto Scaling 그룹에 인스턴스를 배치합니다.
더보기

Answer: B

Amazon SES는 기업이 자체 이메일 주소와 도메인을 사용하여 이메일을 보내고 받을 수 있도록 하는 비용 효율적이고 확장 가능한 이메일 서비스입니다. Amazon SES를 통해 이메일을 보내도록 웹 인스턴스를 구성하는 것은 복잡한 이메일 전송 문제를 해결하는 데 소요되는 시간을 줄이고 운영 오버헤드를 최소화할 수 있는 간단하고 효과적인 솔루션입니다.

Q414.회사에는 매일 수백 개의 보고서를 생성하는 비즈니스 시스템이 있습니다. 비즈니스 시스템은 보고서를 CSV 형식으로 네트워크 공유에 저장합니다. 회사는 분석을 위해 이 데이터를 거의 실시간으로 AWS 클라우드에 저장해야 합니다.최소한의 관리 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★★★
A. AWS DataSync를 사용하여 파일을 Amazon S3로 전송합니다. 매일 끝날 때 실행되는 예약된 작업을 만듭니다.
B. Amazon S3 파일 게이트웨이를 생성합니다. S3 파일 게이트웨이에서 새 네트워크 공유를 사용하도록 비즈니스 시스템을 업데이트합니다.
C. AWS DataSync를 사용하여 파일을 Amazon S3로 전송합니다. 자동화 워크플로에서 DataSync API를 사용하는 애플리케이션을 생성합니다.
D. SFTP용 AWS 전송 엔드포인트를 배포합니다. 네트워크 공유에서 새 파일을 확인하고 SFTP를 사용하여 새 파일을 업로드하는 스크립트를 만듭니다.
더보기

Answer: B

이 시나리오에는 아마존 S3 파일 게이트웨이와 AWS 데이터싱크가 모두 적합하다.
그러나 '최소 관리 오버헤드'에 대한 요구 사항이 있습니다.
옵션 C는 DataSync API를 사용하기 위해 완전히 새로운 애플리케이션을 만드는 것을 포함하며, 이 옵션은 제외됩니다.

Q415.회사에서 Amazon S3 Standard에 페타바이트 규모의 데이터를 저장하고 있습니다. 데이터는 여러 S3 버킷에 저장되며 다양한 빈도로 액세스됩니다. 회사는 모든 데이터에 대한 액세스 패턴을 알지 못합니다. 회사는 S3 사용 비용을 최적화하기 위해 각 S3 버킷에 대한 솔루션을 구현해야 합니다.이러한 요구 사항을 가장 효율적으로 충족하는 솔루션은 무엇입니까?★★★
A. S3 버킷의 객체를 S3 Intelligent-Tiering으로 전환하는 규칙으로 S3 수명 주기 구성을 생성합니다.
B. S3 스토리지 클래스 분석 도구를 사용하여 S3 버킷의 각 객체에 대한 올바른 계층을 결정합니다. 각 개체를 식별된 스토리지 계층으로 이동합니다.
C. S3 버킷의 객체를 S3 Glacier Instant Retrieval로 전환하는 규칙으로 S3 수명 주기 구성을 생성합니다.
D. S3 버킷의 객체를 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환하는 규칙으로 S3 수명 주기 구성을 생성합니다.
더보기

Answer: A

데이터에 대한 알 수 없는 액세스 패턴 = S3 인텔리전트 계층화

Q416.빠르게 성장하는 글로벌 전자상거래 회사는 AWS에서 웹 애플리케이션을 호스팅하고 있습니다. 웹 애플리케이션에는 정적 콘텐츠와 동적 콘텐츠가 포함됩니다. 웹사이트는 Amazon RDS 데이터베이스에 OLTP(온라인 거래 처리) 데이터를 저장합니다. 웹사이트 사용자의 페이지 로드 속도가 느립니다.
이 문제를 해결하기 위해 솔루션 아키텍트가 취해야 할 조치 조합은 무엇입니까? (2개 선택)
A. Amazon Redshift 클러스터를 구성합니다.
B. Amazon CloudFront 배포를 설정합니다.
C. Amazon S3에서 동적 웹 콘텐츠를 호스팅합니다.
D. RDS DB 인스턴스에 대한 읽기 전용 복제본을 생성합니다.
E. RDS DB 인스턴스에 대한 다중 AZ 배포를 구성합니다.
더보기

Answer: B,D

AWS에서 호스팅되는 빠르게 성장하는 전자 상거래 웹 사이트의 느린 페이지 로드 문제를 해결하기 위해 솔루션 설계자는 다음 두 가지 조치를 취할 수 있습니다.

1. Amazon CloudFront 배포 설정

2. RDS DB 인스턴스에 대한 읽기 전용 복제본 생성

Q417.회사는 Amazon EC2 인스턴스와 AWS Lambda 함수를 사용하여 애플리케이션을 실행합니다. 회사의 AWS 계정에는 퍼블릭 서브넷과 프라이빗 서브넷이 있는 VPC가 있습니다. EC2 인스턴스는 VPC 중 하나의 프라이빗 서브넷에서 실행됩니다. 애플리케이션이 작동하려면 Lambda 함수가 EC2 인스턴스에 대한 직접 네트워크 액세스가 필요합니다.신청서는 최소 1년 동안 실행됩니다. 회사는 해당 기간 동안 애플리케이션이 사용하는 Lambda 함수 수가 증가할 것으로 예상합니다. 회사는 모든 애플리케이션 리소스에 대한 절감 효과를 극대화하고 서비스 간의 네트워크 대기 시간을 낮게 유지하기를 원합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까? ★★★
A. EC2 Instance Savings Plan을 구매하세요. Lambda 함수의 기간과 메모리 사용량, 호출 수를 최적화합니다. EC2 인스턴스가 포함된 프라이빗 서브넷에 Lambda 함수를 연결합니다.
B. EC2 인스턴스 Savings Plan을 구매하세요. Lambda 함수의 기간과 메모리 사용량, 호출 수, 전송되는 데이터 양을 최적화합니다. EC2 인스턴스가 실행되는 동일한 VPC의 퍼블릭 서브넷에 Lambda 함수를 연결합니다.
C. Compute Savings Plan을 구매하세요. Lambda 함수의 기간과 메모리 사용량, 호출 수, 전송되는 데이터 양을 최적화합니다. EC2 인스턴스가 포함된 프라이빗 서브넷에 Lambda 함수를 연결합니다.
D. Compute Savings Plan
을 구매하세요. Lambda 함수의 기간과 메모리 사용량, 호출 수, 전송되는 데이터 양을 최적화합니다. Lambda 서비스 VPC에 Lambda 함수를 유지합니다.
더보기

Answer: C

Compute Savings Plan을 구매함으로써 회사는 EC2 인스턴스와 Lambda 기능을 모두 실행하는 비용을 절약할 수 있습니다. Lambda 함수는 AWS 서비스용 VPC 엔드포인트 또는 VPC 피어링 연결을 통해 EC2 인스턴스가 포함된 프라이빗 서브넷에 연결할 수 있습니다.

이렇게 하면 사설 네트워크 내에서 트래픽을 유지하면서 EC2 인스턴스에 대한 직접 네트워크 액세스를 제공하여 네트워크 대기 시간을 최소화하는 데 도움이 됩니다. Lambda 함수의 지속 시간, 메모리 사용량, 호출 수 및 전송된 데이터 양을 최적화하면 비용을 추가로 최소화하고 성능을 개선하는 데 도움이 될 수 있습니다. 또한 프라이빗 서브넷을 사용하면 보안 모범 사례인 퍼블릭 인터넷에서 EC2 인스턴스에 직접 액세스할 수 없도록 하는 데 도움이 됩니다.

Q418.솔루션 아키텍트는 팀 구성원이 두 개의 다른 AWS 계정(개발 계정 및 프로덕션 계정)에서 Amazon S3 버킷에 액세스할 수 있도록 허용해야 합니다. 팀은 현재 계정에서 적절한 권한이 있는 IAM 그룹에 할당된 고유한 IAM 사용자를 사용하여 개발 계정의 S3 버킷에 액세스할 수 있습니다.솔루션 설계자는 프로덕션 계정에서 IAM 역할을 생성했습니다. 이 역할에는 프로덕션 계정의 S3 버킷에 대한 액세스 권한을 부여하는 정책이 있습니다.
최소 권한 원칙을 준수하면서 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. 관리자 액세스 정책을 개발 계정 사용자에게 연결합니다.
B. 생산 계정에 있는 역할의 신뢰 정책에서 개발 계정을 주체로 추가합니다.
C. 프로덕션 계정의 S3 버킷에서 S3 퍼블릭 액세스 차단 기능을 끕니다.
D. 각 팀 구성원에 대해 고유한 자격 증명을 사용하여 프로덕션 계정에 사용자를 생성합니다.
더보기

Answer: B

생산 계정에서 IAM 역할의 신뢰 정책에 개발 계정을 주체로 추가함으로써 개발 계정의 사용자가 생산 계정의 역할을 맡게 하는 것이다. 이를 통해 팀원들은 불필요한 권한을 부여하지 않고 생산 계정의 S3 버킷에 접근할 수 있다.

Q419.회사는 모든 기능이 활성화된 AWS Organizations를 사용하고 ap-southeast-2 리전에서 여러 Amazon EC2 워크로드를 실행합니다. 회사에는 다른 리전에서 리소스가 생성되지 않도록 하는 SCP(서비스 제어 정책)가 있습니다. 보안 정책에 따라 회사는 유휴 상태의 모든 데이터를 암호화해야 합니다.
감사 결과 직원이 볼륨을 암호화하지 않고 EC2 인스턴스용 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성한 것으로 확인되었습니다. 회사는 암호화된 EBS 볼륨을 사용하기 위해 모든 IAM 사용자 또는 루트 사용자가 ap-southeast-2에서 시작하는 모든 새 EC2 인스턴스를 원합니다. 회사는 EBS 볼륨을 생성하는 직원에게 최소한의 영향을 미치는 솔루션을 원합니다.이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (2개 선택) ★★★
A. Amazon EC2 콘솔에서 EBS 암호화 계정 속성을 선택하고 기본 암호화 키를 정의합니다.
B. IAM 권한 경계를 생성합니다. 권한 경계를 루트 조직 단위(OU)에 연결합니다. ec2:Encrypted 조건이 false인 경우 ec2:CreateVolume 작업을 거부하도록 경계를 정의합니다.
C. SCP를 생성합니다. 루트 조직 단위(OU)에 SCP를 연결합니다. ec2:Encrypted 조건이 false인 경우 ec2:CreateVolume 작업을 거부하도록 SCP를 정의합니다.
D. ec2:Encrypted 조건이 false인 경우 ec2:CreateVolume 작업을 거부하도록 각 계정에 대한 IAM 정책을 업데이트합니다.
E. 조직 관리 계정에서 기본 EBS 볼륨 암호화 설정을 지정합니다.
더보기

Answer: C, E

서비스 제어 정책(SCP)은 조직에서 권한을 관리하는 데 사용할 수 있는 정책 유형입니다. SCP는 조직의 모든 계정에 대해 사용 가능한 최대 권한에 대한 중앙 제어를 제공하므로 계정이 조직의 액세스 제어 지침을 준수하도록 할 수 있습니다.

ec2:Encrypted 조건이 false일 때 SCP를 사용하여 ec2:CreateVolume 작업을 거부할 수 있습니다. , 루트 OU 아래 계정의 모든 사용자 또는 역할은 암호화되지 않은 EBS 볼륨을 생성할 수 없습니다. 이 솔루션은 필요에 따라 암호화된 볼륨을 계속 생성할 수 있으므로 EBS 볼륨을 생성하는 직원에게 최소한의 영향을 미칩니다.

Q420.회사에서 Amazon RDS for PostgreSQL DB 클러스터를 사용하여 프로덕션 데이터베이스 워크로드에 대한 시간 소모적인 데이터베이스 관리 작업을 단순화하려고 합니다. 회사는 데이터베이스의 고가용성을 보장하고 대부분의 시나리오에서 40초 이내에 자동 장애 조치 지원을 제공할 것입니다. 회사는 기본 인스턴스에서 읽기를 오프로드하고 비용을 가능한 한 낮게 유지하려고 합니다.이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★★★
A. Amazon RDS 다중 AZ DB 인스턴스 배포를 사용합니다. 하나의 읽기 복제본을 만들고 읽기 워크로드를 읽기 복제본으로 지정합니다.
B. Amazon RDS 다중 AZ DB 더스터 배포 사용 2개의 읽기 전용 복제본을 생성하고 읽기 워크로드를 읽기 전용 복제본으로 지정합니다.
C. Amazon RDS 다중 AZ DB 인스턴스 배포를 사용합니다. 읽기 워크로드가 다중 AZ 쌍의 보조 인스턴스를 가리키도록 합니다.
D. Amazon RDS 다중 AZ DB 클러스터 배포 사용 읽기 워크로드를 리더 엔드포인트로 지정합니다.
더보기

Answer: D 

A - multi-az instance : failover takes between 60-120 sec

D - multi-az cluster: failover around 35 sec 40초이내는 d가 답

Q421.회사에서 고가용성 SFTP 서비스를 실행합니다. SFTP 서비스는 탄력적 IP 주소로 실행되는 두 개의 Amazon EC2 Linux 인스턴스를 사용하여 인터넷에서 신뢰할 수 있는 IP 소스의 트래픽을 허용합니다. SFTP 서비스는 인스턴스에 연결된 공유 스토리지에서 지원합니다. 사용자 계정은 SFTP 서버에서 Linux 사용자로 생성되고 관리됩니다.회사는 높은 IOPS 성능과 고도로 구성 가능한 보안을 제공하는 서버리스 옵션을 원합니다. 회사는 또한 사용자 권한에 대한 제어를 유지하기를 원합니다.이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. 암호화된 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성합니다. 신뢰할 수 있는 IP 주소만 허용하는 퍼블릭 엔드포인트로 AWS Transfer Family SFTP 서비스를 생성합니다. EBS 볼륨을 SFTP 서비스 엔드포인트에 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.
B. 암호화된 Amazon Elastic File System(Amazon EFS) 볼륨을 생성합니다. 탄력적 IP 주소와 인터넷 연결 액세스가 있는 VPC 엔드포인트를 사용하여 AWS Transfer Family SFTP 서비스를 생성합니다. 신뢰할 수 있는 IP 주소만 허용하는 엔드포인트에 보안 그룹을 연결합니다. EFS 볼륨을 SFTP 서비스 엔드포인트에 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.
C. 기본 암호화가 활성화된 Amazon S3 버킷을 생성합니다. 신뢰할 수 있는 IP 주소만 허용하는 퍼블릭 엔드포인트로 AWS Transfer Family SFTP 서비스를 생성합니다. S3 버킷을 SFTP 서비스 엔드포인트에 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.
D. 기본 암호화가 활성화된 Amazon S3 버킷을 생성합니다. 프라이빗 서브넷에서 내부 액세스 권한이 있는 VPC 엔드포인트로 AWS Transfer Family SFTP 서비스를 생성합니다. 신뢰할 수 있는 IP 주소만 허용하는 보안 그룹을 연결합니다. S3 버킷을 SFTP 서비스 엔드포인트에 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.
더보기

Answer: B

EBS는 옵션이 아니므로 A가 잘못되었습니다
공용 액세스 가능을 선택하면 신뢰할 수 있는 IP 주소를 설정할 수 있는 옵션이 표시되지 않으므로 C가 올바르지 않습니다
내부적인 것이라 정확하지 않습니다.

Q422.한 회사가 AWS에서 새로운 기계 학습(ML) 모델 솔루션을 개발하고 있습니다. 모델은 시작 시 Amazon S3에서 약 1GB의 모델 데이터를 가져와 메모리에 로드하는 독립적인 마이크로서비스로 개발됩니다. 사용자는 비동기 API를 통해 모델에 액세스합니다. 사용자는 요청 또는 요청 배치를 보내고 결과를 보낼 위치를 지정할 수 있습니다.
회사는 수백 명의 사용자에게 모델을 제공합니다. 모델의 사용 패턴이 불규칙합니다. 일부 모델은 며칠 또는 몇 주 동안 사용하지 않을 수 있습니다. 다른 모델은 한 번에 수천 개의 요청 배치를 수신할 수 있습니다.
이러한 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 디자인을 권장해야 합니까?
A. API의 요청을 Network Load Balancer(NLB)로 보냅니다. NLB에서 호출하는 AWS Lambda 함수로 모델을 배포합니다.
B. API의 요청을 Application Load Balancer(ALB)로 보냅니다. Amazon Simple Queue Service(Amazon SQS) 대기열에서 읽는 Amazon Elastic Container Service(Amazon ECS) 서비스로 모델을 배포합니다. AWS App Mesh를 사용하여 SQS 대기열 크기에 따라 ECS 클러스터의 인스턴스를 확장합니다.
C. API의 요청을 Amazon Simple Queue Service(Amazon SQS) 대기열로 보냅니다. SQS 이벤트에 의해 호출되는 AWS Lambda 함수로 모델을 배포합니다. AWS Auto Scaling을 사용하여 SQS 대기열 크기에 따라 Lambda 함수의 vCPU 수를 늘립니다.
D. API의 요청을 Amazon Simple Queue Service(Amazon SQS) 대기열로 보냅니다. 대기열에서 읽는 Amazon Elastic Container Service(Amazon ECS) 서비스로 모델을 배포합니다. 대기열 크기에 따라 서비스의 클러스터와 복사본 모두에 대해 Amazon ECS에서 AWS Auto Scaling을 활성화합니다.
더보기

Answer: D

비동기api  는 NLB  B제외

이 대답은 불규칙하고 예측할 수 없는 사용 패턴을 처리할 수 있는 독립적인 마이크로 서비스로 ML 모델을 실행하기 위한 요구 사항을 충족하기 때문에 정확합니다. API의 요청을 Amazon SQS 대기열로 보내면 회사는 모델 실행에서 요청 처리를 분리하고 수요 급증으로 인해 요청이 손실되지 않도록 할 수 있습니다. 대기열에서 읽는 Amazon ECS 서비스로 모델을 배포함으로써 회사는 컨테이너를 활용하여 각 모델을 마이크로 서비스로 격리 및 패키징하고 시작 시 S3에서 모델 데이터를 가져올 수 있습니다. 대기열 크기에 따라 서비스의 클러스터와 복사본 모두에 대해 Amazon ECS에서 AWS Auto Scaling을 활성화함으로써 회사는 클러스터의 EC2 인스턴스 수와 각 서비스의 작업 수를 성능을 요구하고 최적화합니다.

Q423솔루션 설계자는 다음 JSON 텍스트를 자격 증명 기반 정책으로 사용하여 특정 권한을 부여하려고 합니다.
솔루션 설계자가 이 정책을 연결할 수 있는 IAM 보안 주체는 무엇입니까? (2개 선택) ★★★

A. 역할(Role)
B. 그룹(Group)
C. 조직(Organization)
D. Amazon Elastic Container Service(Amazon ECS) 리소스(resource)
E. Amazon EC2 리소스(resource)
Answer: A, B
AB는 맞지만 AWS IAM 문서에 따르면 그룹은 주요 그룹으로 간주되지 않기 때문에 질문은 오해의 소지가 있습니다:
Q424.회사는 Amazon EC2 온디맨드 인스턴스에서 사용자 지정 애플리케이션을 실행하고 있습니다. 애플리케이션에는 하루 24시간, 주 7일 실행해야 하는 프런트엔드 노드와 워크로드에 따라 짧은 시간 동안만 실행해야 하는 백엔드 노드가 있습니다. 백엔드 노드의 수는 하루 동안 다양합니다.회사는 워크로드에 따라 더 많은 인스턴스를 확장 및 확장해야 합니다.이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?
A. 프런트엔드 노드에는 예약 인스턴스를 사용합니다. 백엔드 노드에 AWS Fargate를 사용합니다.
B. 프런트엔드 노드에 예약 인스턴스를 사용합니다. 백엔드 노드에 스팟 인스턴스를 사용합니다.
C. 프런트엔드 노드에 스팟 인스턴스를 사용합니다. 백엔드 노드에 예약 인스턴스를 사용합니다.
D. 프런트엔드 노드에 스팟 인스턴스를 사용합니다. 백엔드 노드에 AWS Fargate를 사용합니다.
더보기

Answer:B

Q425.회사는 높은 블록 스토리지 용량을 사용하여 온프레미스에서 워크로드를 실행합니다. 회사의 일일 최대 입력 및 초당 출력 트랜잭션은 15,000 IOPS를 넘지 않습니다. 이 회사는 워크로드를 Amazon EC2로 마이그레이션하고 스토리지 용량과 독립적으로 디스크 성능을 프로비저닝하려고 합니다.이러한 요구 사항을 가장 비용 효율적으로 충족하는 Amazon Elastic Block Store(Amazon EBS) 볼륨 유형은 무엇입니까?
A. GP2 볼륨 유형
B. io2 볼륨 유형
C. GP3 볼륨 유형
D. io1 볼륨 유형
더보기

Answer: C

Q426.회사는 의료 애플리케이션의 데이터를 저장해야 합니다. 애플리케이션의 데이터는 자주 변경됩니다. 새로운 규정은 저장된 데이터의 모든 수준에서 감사 액세스를 요구합니다.회사는 스토리지 용량이 부족한 온프레미스 인프라에서 애플리케이션을 호스팅합니다. 솔루션 설계자는 새로운 규정을 만족하면서 기존 데이터를 AWS로 안전하게 마이그레이션해야 합니다.이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. AWS DataSync를 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 데이터 이벤트를 기록합니다.
B. AWS Snowcone을 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 관리 이벤트를 기록합니다.
C. Amazon S3 Transfer Acceleration을 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 데이터 이벤트를 기록합니다.
D. AWS Storage Gateway를 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 관리 이벤트를 기록합니다.
더보기

Answer: A

Q427.솔루션 아키텍트가 MySQL 데이터베이스로 복잡한 Java 애플리케이션을 구현하고 있습니다. Java 애플리케이션은 Apache Tomcat에 배포되어야 하며 고가용성이어야 합니다.솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A. AWS Lambda에 애플리케이션을 배포합니다. Lambda 함수와 연결하도록 Amazon API Gateway API를 구성합니다.
B. AWS Elastic Beanstalk를 사용하여 애플리케이션을 배포합니다. 부하 분산 환경 및 롤링 배포 정책을 구성합니다.
C. 데이터베이스를 Amazon ElastiCache로 마이그레이션합니다. 애플리케이션에서 액세스를 허용하도록 ElastiCache 보안 그룹을 구성합니다.
D. Amazon EC2 인스턴스를 시작합니다. EC2 인스턴스에 MySQL 서버를 설치합니다. 서버에서 애플리케이션을 구성합니다. AMI를 생성합니다. AMI를 사용하여 Auto Scaling 그룹으로 시작 템플릿을 생성합니다.
더보기

Answer: B

AWS Elastic Beanstalk는 애플리케이션을 쉽고 빠르게 배포, 관리 및 확장할 수 있는 방법을 제공합니다. Java Apache Tomcat을 포함한 다양한 플랫폼을 지원합니다. 솔루션 설계자는 Elastic Beanstalk를 사용하여 Java 애플리케이션을 업로드하고 Apache Tomcat을 실행하도록 환경을 구성할 수 있습니다.

Q428.서버리스 애플리케이션은 Amazon API Gateway, AWS Lambda 및 Amazon DynamoDB를 사용합니다. Lambda 함수에는 DynamoDB 테이블을 읽고 쓸 수 있는 권한이 필요합니다.DynamoDB 테이블에 대한 Lambda 함수 액세스를 가장 안전하게 제공하는 솔루션은 무엇입니까?
A. Lambda 함수에 프로그래밍 방식으로 액세스할 수 있는 IAM 사용자를 생성합니다. DynamoDB 테이블에 대한 읽기 및 쓰기 액세스를 허용하는 정책을 사용자에게 연결합니다. access_key_id 및 secret_access_key 파라미터를 Lambda 환경 변수의 일부로 저장합니다. 다른 AWS 사용자에게 Lambda 함수 구성에 대한 읽기 및 쓰기 액세스 권한이 없는지 확인하십시오.
B. Lambda를 신뢰할 수 있는 서비스로 포함하는 IAM 역할을 생성합니다. DynamoDB 테이블에 대한 읽기 및 쓰기 액세스를 허용하는 역할에 정책을 연결합니다. 새 역할을 실행 역할로 사용하도록 Lambda 함수의 구성을 업데이트합니다.
C. Lambda 함수에 프로그래밍 방식으로 액세스할 수 있는 IAM 사용자를 생성합니다. DynamoDB 테이블에 대한 읽기 및 쓰기 액세스를 허용하는 정책을 사용자에게 연결합니다. AWS Systems Manager Parameter Store에 access_key_id 및 secret_access_key 파라미터를 보안 문자열 파라미터로 저장합니다. DynamoDB 테이블에 연결하기 전에 보안 문자열 파라미터를 검색하도록 Lambda 함수 코드를 업데이트합니다.
D. DynamoDB를 신뢰할 수 있는 서비스로 포함하는 IAM 역할을 생성합니다. Lambda 함수에서 읽기 및 쓰기 액세스를 허용하는 역할에 정책을 연결합니다. 새 역할에 실행 역할로 연결되도록 Lambda 함수의 코드를 업데이트합니다.
더보기

Answer: B

옵션 B Lambda를 신뢰할 수 있는 서비스로 포함하는 IAM 역할을 생성할 것을 제안합니다. , 이 역할은 Lambda 함수용으로 특별히 설계되었습니다. 역할에는 DynamoDB 테이블에 대한 필수 읽기 및 쓰기 액세스 권한을 부여하는 정책이 연결되어 있어야 합니다.

Q429.다음 IAM 정책은 IAM 그룹에 연결됩니다. 이것은 그룹에 적용되는 유일한 정책입니다.
그룹 구성원에 대한 이 정책의 유효 IAM 권한은 무엇입니까?

A. 그룹 구성원은 us-east-1 지역 내 모든 Amazon EC2 작업이 허용됩니다. 허용 권한 이후의 문은 적용되지 않습니다.
B. 그룹 구성원은 멀티 팩터 인증(MFA)으로 로그인하지 않는 한 us-east-1 리전에서 모든 Amazon EC2 권한이 거부됩니다.
C. 그룹 구성원은 멀티 팩터 인증(MFA)으로 로그인할 때 모든 리전에 대한 ec2:StopInstances 및 ec2:TerminateInstances 권한이 허용됩니다. 그룹 구성원은 다른 모든 Amazon EC2 작업이 허용됩니다.
D. 그룹 구성원은 멀티 팩터 인증(MFA)으로 로그인한 경우에만 us-east-1 리전에 대한 ec2:StopInstances 및 ec2:TerminateInstances 권한이 허용됩니다. 그룹 구성원은 us-east-1 리전 내에서 다른 모든 Amazon EC2 작업이 허용됩니다.
더보기

Answer: D

이 답변은 그룹 구성원에 대한 IAM 정책의 영향을 반영하기 때문에 정확합니다. 정책에는 두 개의 문이 있습니다. 하나는 허용 효과가 있고 다른 하나는 거부 효과가 있습니다. Allow 문은 us-east-1 지역 내의 모든 리소스에 대해 EC2 작업을 수행할 수 있는 권한을 부여합니다. Deny 문은 Allow 문을 재정의하고 그룹 구성원이 MFA로 로그인하지 않는 한 us-east-1 리전 내의 모든 리소스에 대해 ec2:StopInstances ec2:TerminateInstances 작업을 수행할 수 있는 권한을 거부합니다. 따라서 그룹 구성원은 모든 작업을 수행할 수 있습니다. MFA를 사용하지 않는 한 us-east-1 리전에서 인스턴스 중지 또는 종료를 제외한 EC2 작업.

Q430.제조 회사에는 Amazon S3 버킷에 .csv 파일을 업로드하는 기계 센서가 있습니다. 이러한 .csv 파일은 이미지로 변환되어야 하며 그래픽 보고서의 자동 생성을 위해 가능한 한 빨리 사용할 수 있어야 합니다.이미지는 1개월이 지나면 관련이 없게 되지만 1년에 두 번 기계 학습(ML) 모델을 훈련시키기 위해 .csv 파일을 보관해야 합니다. ML 교육 및 감사는 몇 주 전에 미리 계획됩니다.이러한 요구 사항을 가장 비용 효율적으로 충족하는 단계 조합은 무엇입니까? (2개 선택)★★★
A. 매시간 .csv 파일을 다운로드하고 이미지 파일을 생성하며 이미지를 S3 버킷에 업로드하는 Amazon EC2 스팟 인스턴스를 시작합니다.
B. .csv 파일을 이미지로 변환하고 이미지를 S3 버킷에 저장하는 AWS Lambda 함수를 설계합니다. .csv 파일이 업로드되면 Lambda 함수를 호출합니다.
C. S3 버킷의 .csv 파일 및 이미지 파일에 대한 S3 수명 주기 규칙을 생성합니다. .csv 파일을 업로드하고 1일 후에 S3 Standard에서 S3 Glacier로 전환합니다. 30일 후에 이미지 파일을 만료하십시오.
D. S3 버킷의 .csv 파일 및 이미지 파일에 대한 S3 수명 주기 규칙을 생성합니다. 업로드 1일 후 .csv 파일을 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환합니다. 30일 후에 이미지 파일을 만료하십시오.
E. S3 버킷의 .csv 파일 및 이미지 파일에 대한 S3 수명 주기 규칙을 생성합니다. .csv 파일을 업로드하고 1일 후에 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 전환합니다. RRS(Reduced Redundancy Storage)에 이미지 파일을 보관합니다.
더보기

Answer: B,C

이러한 답변은 .csv 파일을 이미지로 변환하고 가능한 한 빨리 사용 가능하게 하며 스토리지 비용을 최소화하기 위한 요구 사항을 충족하므로 정확합니다. AWS Lambda는 서버를 프로비저닝하거나 관리하지 않고 코드를 실행할 수 있는 서비스입니다. AWS Lambda를 사용하여 .csv 파일을 이미지로 변환하고 이미지를 S3 버킷에 저장하는 함수를 설계할 수 있습니다.

.csv 파일은 몇 주 전에 계획된 ML 교육 및 감사에 1년에 두 번만 필요하므로 업로드한 지 1일 후에 S3 Standard에서 S3 Glacier로 전환할 수 있습니다. S3 Glacier는 검색 시간이 몇 분에서 몇 시간에 이르는 안전하고 내구성이 있으며 매우 저렴한 스토리지를 제공하는 데이터 아카이빙용 스토리지 클래스입니다.

이미지 파일은 1개월이 지나면 관련성이 없어지므로 30일 후에 만료될 수 있습니다.

Q431
회사에서 웹 애플리케이션으로 새로운 비디오 게임을 개발했습니다. 애플리케이션은 데이터베이스 계층에 MySQL용 Amazon RDS가 있는 VPC의 3계층 아키텍처에 있습니다. 여러 플레이어가 온라인에서 동시에 경쟁합니다. 게임 개발자는 거의 실시간으로 상위 10개 점수판을 표시하고 현재 점수를 유지하면서 게임을 중지하고 복원할 수 있는 기능을 제공하고자 합니다.솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까? ★★★
A. 웹 애플리케이션이 표시할 점수를 캐시하도록 Memcached 클러스터용 Amazon ElastiCache를 설정합니다.
B. Redis 클러스터용 Amazon ElastiCache를 설정하여 웹 애플리케이션이 표시할 점수를 계산하고 캐시합니다.
C. 웹 애플리케이션 앞에 Amazon CloudFront 배포를 배치하여 애플리케이션 섹션의 점수판을 캐시합니다.
D. MySQL용 Amazon RDS에서 읽기 전용 복제본을 생성하여 스코어보드를 계산하고 웹 애플리케이션에 읽기 트래픽을 제공하는 쿼리를 실행합니다.
더보기

Answer: B

이 답변은 거의 실시간으로 상위 10개 점수판을 표시하고 현재 점수를 유지하면서 게임을 중지하고 복원할 수 있는 기능을 제공하는 요구 사항을 충족하므로 정확합니다. Redis Amazon ElastiCache는 인터넷 규모의 실시간 애플리케이션을 지원하기 위해 1밀리초 미만의 지연 시간을 제공하는 초고속 인 메모리 데이터 스토어입니다. Redis Amazon ElastiCache를 사용하여 Redis ElastiCache 클러스터를 설정하여 웹 애플리케이션이 표시할 점수를 계산하고 캐시할 수 있습니다. 정렬된 세트 및 해시와 같은 Redis 데이터 구조를 사용하여 플레이어의 점수를 저장하고 순위를 매길 수 있으며 ZRANGE ZADD와 같은 Redis 명령을 사용하여 점수를 효율적으로 검색 및 업데이트할 수 있습니다. 또한 스냅샷 및 추가 전용 파일(AOF)과 같은 Redis 지속성 기능을 사용하여 데이터의 특정 시점 복구를 활성화할 수 있으므로 현재 점수를 유지하면서 게임을 중지하고 복원할 수 있습니다.

Q432.한 전자상거래 회사에서 기계 학습(ML) 알고리즘을 사용하여 모델을 구축하고 훈련하려고 합니다. 회사는 모델을 사용하여 복잡한 시나리오를 시각화하고 고객 데이터의 추세를 감지합니다. 아키텍처 팀은 ML 모델을 보고 플랫폼과 통합하여 증강 데이터를 분석하고 비즈니스 인텔리전스 대시보드에서 직접 데이터를 사용하려고 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. AWS Glue를 사용하여 ML 변환을 생성하여 모델을 구축하고 교육합니다. Amazon OpenSearch Service를 사용하여 데이터를 시각화합니다.
B. Amazon SageMaker를 사용하여 모델을 구축하고 교육합니다. Amazon QuickSight를 사용하여 데이터를 시각화합니다.
C. AWS Marketplace에서 사전 구축된 ML Amazon 머신 이미지(AMI)를 사용하여 모델을 구축하고 교육합니다. Amazon OpenSearch Service를 사용하여 데이터를 시각화합니다.
D. Amazon QuickSight를 사용하여 계산된 필드를 사용하여 모델을 구축하고 교육합니다. Amazon QuickSight를 사용하여 데이터를 시각화합니다.
더보기

Answer: B

최소 운영 오버헤드를 위한 머신 러닝 = Sage Maker so B
A와 D는 올바른 기술이 아니다.
C는 가능하지만 OpenSearch가 데이터를 시각화할 수 있다고 해도 AMI를 사용하는 오버헤드가 더 많기 때문에 대규모 오버헤드 없이는 불가능하다고 생각합니다

Q433.한 회사가 여러 AWS 계정에서 프로덕션 및 비프로덕션 환경 워크로드를 실행하고 있습니다. 계정은 AWS Organizations의 조직에 있습니다. 회사는 비용 사용 태그의 수정을 방지하는 솔루션을 설계해야 합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. 권한이 부여된 보안 주체 외에는 태그 수정을 방지하기 위해 사용자 지정 AWS Config 규칙을 생성합니다.
B. 태그 수정을 방지하기 위해 AWS CloudTrail에서 사용자 지정 추적을 생성합니다.
C. 인증된 주체 외에는 태그 수정을 방지하기 위해 서비스 제어 정책(SCP)을 생성합니다.
D.태그 수정을 방지하기 위해 사용자 지정 Amazon CloudWatch 로그를 생성합니다.
더보기

Answer: C

A(X) : 인프라구성확인 /로그 

B(X) : CloudTrail  추적만가능

C(O): 실제설정은 SCP

D(X) CloudWatch 도 로그만생성

Q434.회사는 AWS 클라우드에서 애플리케이션을 호스팅합니다. 이 애플리케이션은 Amazon DynamoDB 테이블과 함께 Auto Scaling 그룹의 Elastic Load Balancer 뒤에 있는 Amazon EC2 인스턴스에서 실행됩니다. 회사는 다운타임을 최소화하면서 다른 AWS 리전에서 애플리케이션을 사용할 수 있기를 원합니다.
가동 중지 시간을 최소화하면서 이러한 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?★★
A. 재해 복구 지역에 Auto Scaling 그룹과 로드 밸런서를 생성합니다. DynamoDB 테이블을 전역 테이블로 구성합니다. 새 재해 복구 리전의 로드 밸런서를 가리키도록 DNS 장애 조치를 구성합니다.
B. 필요할 때 시작할 EC2 인스턴스, 로드 밸런서 및 DynamoDB 테이블을 생성하기 위해 AWS CloudFormation 템플릿을 생성합니다. 새 재해 복구 리전의 로드 밸런서를 가리키도록 DNS 장애 조치를 구성합니다.
C. AWS CloudFormation 템플릿을 생성하여 EC2 인스턴스와 필요할 때 실행할 로드 밸런서를 생성합니다. DynamoDB 테이블을 전역 테이블로 구성합니다. 새 재해 복구 리전의 로드 밸런서를 가리키도록 DNS 장애 조치를 구성합니다.
D. 재해 복구 지역에서 Auto Scaling 그룹 및 로드 밸런서를 생성합니다. DynamoDB 테이블을 전역 테이블로 구성합니다. 재해 복구 로드 밸런서를 가리키는 Amazon Route 53을 업데이트하는 AWS Lambda 함수를 트리거하는 Amazon CloudWatch 경보를 생성합니다.
더보기

Answer: C

그들은 자동 페일오버를 요구하는 것이 아니라 "다운타임을 최소화하면서 다른 AWS 지역에서 애플리케이션을 사용할 수 있도록(!) 보장하기를 원한다." 이것은 C와 함께 작동한다; 그들은 단지 템플릿을 실행할 것이고 짧은 시간에 그것을 사용할 수 있을 것이다.
A는 이미 사용 가능한 DR 환경을 만들 것이며, 이것은 질문이 요구하는 것이 아니다.
D는 그저 람다를 악용하여 DNS 레코드를 업데이트하는 것(말이 안 된다) A와 같다.
B는 별도의 빈 데이터베이스를 만들 것이다

Q435.회사는 2주 이내에 온프레미스 데이터 센터에서 AWS로 MySQL 데이터베이스를 마이그레이션해야 합니다. 데이터베이스 크기는 20TB입니다. 회사는 다운타임을 최소화하면서 마이그레이션을 완료하기를 원합니다.
데이터베이스를 가장 비용 효율적으로 마이그레이션하는 솔루션은 무엇입니까?
A. AWS Snowball Edge Storage Optimized 디바이스를 주문합니다. AWS Schema Conversion Tool(AWS SCT)과 함께 AWS Database Migration Service(AWS DMS)를 사용하여 진행 중인 변경 사항을 복제하여 데이터베이스를 마이그레이션합니다. Snowball Edge 디바이스를 AWS로 보내 마이그레이션을 완료하고 진행 중인 복제를 계속합니다.
B. AWS Snowmobile 차량을 주문합니다. AWS Schema Conversion Tool(AWS SCT)과 함께 AWS Database Migration Service(AWS DMS)를 사용하여 지속적인 변경 사항이 있는 데이터베이스를 마이그레이션합니다. Snowmobile 차량을 다시 AWS로 보내 마이그레이션을 완료하고 진행 중인 복제를 계속합니다.
C. GPU 장치로 AWS Snowball Edge Compute Optimized를 주문합니다. AWS Schema Conversion Tool(AWS SCT)과 함께 AWS Database Migration Service(AWS DMS)를 사용하여 지속적인 변경 사항이 있는 데이터베이스를 마이그레이션합니다. Snowball 디바이스를 AWS로 보내 마이그레이션을 완료하고 진행 중인 복제를 계속합니다.
D. 1GB 전용 AWS Direct Connect 연결을 주문하여 데이터 센터와의 연결을 설정합니다. AWS Schema Conversion Tool(AWS SCT)과 함께 AWS Database Migration Service(AWS DMS)를 사용하여 진행 중인 변경 사항을 복제하여 데이터베이스를 마이그레이션합니다.
더보기

Answer: A

이 대답은 가동 중지 시간을 최소화하고 비용 효율적으로 2주 이내에 20TB MySQL 데이터베이스를 마이그레이션해야 하는 요구 사항을 충족하기 때문에 정답입니다. AWS Snowball Edge Storage Optimized 디바이스에는 최대 80TB의 사용 가능한 스토리지 공간이 있으며 이는 데이터베이스에 적합합니다. AWS Database Migration Service(AWS DMS)는 소스에서 대상으로 변경 사항을 지속적으로 복제하여 다운타임을 최소화하면서 MySQL에서 Amazon Aurora, Amazon RDS for MySQL 또는 Amazon EC2 MySQL로 데이터를 마이그레이션할 수 있습니다. AWS Schema Conversion Tool(AWS SCT)은 소스 스키마와 코드를 대상 데이터베이스와 호환되는 형식으로 변환할 수 있습니다. 이러한 서비스를 함께 사용함으로써 회사는 가동 중지 시간과 비용을 최소화하면서 데이터베이스를 AWS로 마이그레이션할 수 있습니다.

Snowball Edge 디바이스를 다시 AWS로 배송하여 마이그레이션을 완료하고 데이터베이스가 완전히 마이그레이션될 때까지 지속적인 복제를 계속할 수 있습니다.

Q436.회사에서 온프레미스 PostgreSQL 데이터베이스를 Amazon RDS for PostgreSQL DB 인스턴스로 옮겼습니다. 회사는 신제품을 성공적으로 출시했습니다. 데이터베이스의 워크로드가 증가했습니다. 회사는 인프라를 추가하지 않고 더 큰 워크로드를 수용하려고 합니다.이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까? ★★
A. 전체 워크로드에 대해 예약된 DB 인스턴스를 구매합니다. PostgreSQL DB 인스턴스용 Amazon RDS를 더 크게 만듭니다.
B. Amazon RDS for PostgreSQL DB 인스턴스를 다중 AZ DB 인스턴스로 만듭니다.
C. GPU 장치로 AWS Snowball Edge Compute Optimized를 주문합니다. AWS Schema Conversion Tool(AWS SCT)과 함께 AWS Database Migration Service(AWS DMS)를 사용하여 지속적인 변경 사항이 있는 데이터베이스를 마이그레이션합니다. Snowball 디바이스를 AWS로 보내 마이그레이션을 완료하고 진행 중인 복제를 계속합니다.
D. Amazon RDS for PostgreSQL DB 인스턴스를 온디맨드 DB 인스턴스로 만듭니다.
더보기

Answer: A

이 대답은 인프라를 추가하지 않고 비용을 최소화하지 않고 더 큰 워크로드를 수용하는 요구 사항을 충족하기 때문에 맞습니다. 예약 DB 인스턴스는 계정에서 특정 온디맨드 DB 인스턴스 사용에 적용되는 청구 할인입니다. 예약 DB 인스턴스는 온디맨드 DB 인스턴스 요금에 비해 상당한 할인을 제공합니다. 총 워크로드에 대해 예약된 DB 인스턴스를 구입하고 선결제 없음, 부분 선결제 또는 전체 선결제의 세 가지 결제 옵션 중에서 선택할 수 있습니다. 인스턴스 유형을 더 높은 성능 클래스로 수정하여 Amazon RDS for PostgreSQL DB 인스턴스를 더 크게 만들 수 있습니다. 이렇게 하면 DB 인스턴스의 CPU, 메모리 및 네트워크 용량을 늘리고 늘어난 워크로드를 처리할 수 있습니다.

Q437.회사는 Auto Scaling 그룹의 Application Load Balancer(ALB) 뒤에 있는 Amazon EC2 인스턴스에서 전자상거래 웹 사이트를 운영합니다. 사이트에서 IP 주소가 변경되는 불법 외부 시스템의 높은 요청 비율과 관련된 성능 문제가 발생하고 있습니다. 보안 팀은 웹 사이트에 대한 잠재적인 DDoS 공격에 대해 걱정하고 있습니다. 회사는 합법적인 사용자에게 최소한의 영향을 미치는 방식으로 불법적으로 들어오는 요청을 차단해야 합니다.
솔루션 설계자는 무엇을 추천해야 합니까?
A. Amazon Inspector를 배포하고 ALB와 연결합니다.
B. AWS WAF를 배포하고 ALB와 연결하고 속도 제한 규칙을 구성합니다.
C. 들어오는 트래픽을 차단하기 위해 ALB와 연결된 네트워크 ACL에 규칙을 배포합니다.
D. mazon GuardDuty를 배포하고 GuardDuty를 구성할 때 속도 제한 보호를 활성화합니다.
더보기

Answer: B

AWS WAF  를통해 잠재적인 DDoS 공격을 완화하고 웹 사이트의 성능을 향상시킬 수 있습니다.

Q438.회사에서 외부 감사인과 회계 데이터를 공유하려고 합니다. 데이터는 프라이빗 서브넷에 상주하는 Amazon RDS DB 인스턴스에 저장됩니다. 감사자는 자체 AWS 계정이 있으며 자체 데이터베이스 사본이 필요합니다.
회사가 감사자와 데이터베이스를 공유하는 가장 안전한 방법은 무엇입니까?
A. 데이터베이스의 읽기 전용 복제본을 생성합니다. 감사자 액세스 권한을 부여하도록 IAM 표준 데이터베이스 인증을 구성합니다.
B. 데이터베이스 내용을 텍스트 파일로 내보냅니다. 파일을 Amazon S3 버킷에 저장합니다. 감사자를 위한 새 IAM 사용자를 생성합니다. 사용자에게 S3 버킷에 대한 액세스 권한을 부여합니다.
C. 데이터베이스의 스냅샷을 Amazon S3 버킷에 복사합니다. IAM 사용자를 생성합니다. 사용자의 키를 감사자와 공유하여 S3 버킷의 객체에 대한 액세스 권한을 부여합니다.
D. 데이터베이스의 암호화된 스냅샷을 생성합니다. 감사자와 스냅샷을 공유합니다. AWS Key Management Service(AWS KMS) 암호화 키에 대한 액세스를 허용합니다.
더보기

Answer: D

이 대답은 안전한 방식으로 감사자와 데이터베이스를 공유하는 요구 사항을 충족하기 때문에 정확합니다. AWS Key Management Service(AWS KMS)를 사용하여 데이터베이스의 암호화된 스냅샷을 생성하여 고객 관리형 키로 스냅샷을 암호화할 수 있습니다. 스냅샷의 권한을 수정하고 감사자의 AWS 계정 ID를 지정하여 감사자와 스냅샷을 공유할 수 있습니다. 감사자의 계정에 권한을 부여하는 키 정책 설명을 추가하여 AWS KMS 암호화 키에 대한 액세스를 허용할 수도 있습니다. 이렇게 하면 감사자만 자신의 AWS 계정에서 스냅샷에 액세스하고 복원할 수 있습니다.

Q439.솔루션 설계자는 IP 주소 범위가 작은 VPC를 구성했습니다. VPC에 있는 Amazon EC2 인스턴스의 수가 증가하고 있으며 향후 워크로드를 위한 IP 주소의 수가 부족합니다.최소한의 운영 오버헤드로 이 문제를 해결하는 솔루션은 무엇입니까? ★★★
A. 추가 IPv4 CIDR 블록을 추가하여 IP 주소 수를 늘리고 VPC에 추가 서브넷을 만듭니다. 새 CIDR을 사용하여 새 서브넷에 새 리소스를 만듭니다.
B. 추가 서브넷이 있는 두 번째 VPC를 생성합니다. 피어링 연결을 사용하여 두 번째 VPC를 첫 번째 VPC와 연결 경로를 업데이트하고 두 번째 VPC의 서브넷에서 새 리소스를 생성합니다.
C. AWS Transit Gateway를 사용하여 transit gateway를 추가하고 첫 번째 VPUpdate에 두 번째 VPC를 연결하여 transit gateway 및 VPC의 경로를 업데이트합니다. 두 번째 VPC의 서브넷에 새 리소스를 만듭니다.
D. 두 번째 VPC를 생성합니다. Amazon EC2 및 가상 프라이빗 게이트웨이에서 VPN 호스팅 솔루션을 사용하여 첫 번째 VPC와 두 번째 VPC 간에 사이트 간 VPN 연결을 생성합니다. VPC 간 경로를 VPN을 통한 트래픽으로 업데이트합니다. 두 번째 VPC의 서브넷에 새 리소스를 만듭니다.
더보기

Answer: A 

A가 맞습니다: VPC를 생성할 때 기본 CIDR 블록으로 단일 CIDR IP 주소 범위를 할당하고

VPC를 생성한 후 보조 CIDR 블록을 최대 4개까지 추가할 수 있습니다.

IP모자르면  CIDR 블록추가부터!!

Q440.한 회사에서 애플리케이션 테스트 중에 Amazon RDS for MySQL DB 인스턴스를 사용했습니다. 테스트 주기가 끝날 때 DB 인스턴스를 종료하기 전에 솔루션 설계자는 두 개의 백업을 생성했습니다. 솔루션 설계자는 데이터베이스 덤프를 생성하기 위해 mysqldump 유틸리티를 사용하여 첫 번째 백업을 생성했습니다. 솔루션 설계자는 RDS 종료 시 최종 DB 스냅샷 옵션을 활성화하여 두 번째 백업을 생성했습니다.회사는 이제 새로운 테스트 주기를 계획하고 있으며 가장 최근 백업에서 새 DB 인스턴스를 생성하려고 합니다. 이 회사는 DB 인스턴스를 호스팅하기 위해 Amazon Aurora의 MySQL 호환 에디션을 선택했습니다.어떤 솔루션이 새 DB 인스턴스를 생성합니까? (2개 선택) ★★
A. RDS 스냅샷을 Aurora로 직접 가져옵니다.
B. RDS 스냅샷을 Amazon S3에 업로드합니다. 그런 다음 RDS 스냅샷을 Aurora로 가져옵니다.
C. 데이터베이스 덤프를 Amazon S3에 업로드합니다. 그런 다음 데이터베이스 덤프를 Aurora로 가져옵니다.
D. AWS Database Migration Service(AWS DMS)를 사용하여 RDS 스냅샷을 Aurora로 가져옵니다.
E. 데이터베이스 덤프를 Amazon S3에 업로드합니다. 그런 다음 AWS Database Migration Service(AWS DMS)를 사용하여 데이터베이스 덤프를 Aurora로 가져옵니다.
더보기

Answer: A ,C

첫번째, 두번째 백업을 옮기는것

A는 스냅샷이 이미 AWS에 저장되어 있기 때문입니다.
C 마이SQL에서 마이SQL로 이행하는 마이그레이션 툴이 필요 없기 때문이다. 당신은 마이SQL 유틸리티를 사용할 것이다.