AWS/자격증

[AWS] SAA -C03 DUMP 로 공부하자 9(321~350)

itat-yoon 2024. 8. 11. 16:12
Q321.솔루션 설계자는 Amazon S3 버킷에 업로드된 모든 객체가 암호화되도록 하려면 어떻게 해야 합니까? ★★
A. PutObject에 s3:x-amz-acl 헤더 세트가 없는 경우 거부하도록 버킷 정책을 업데이트합니다.
B. PutObject에 프라이빗으로 설정된 s3:x-amz-acl 헤더가 없는 경우 거부하도록 버킷 정책을 업데이트합니다.
C. PutObject에 true로 설정된 aws:SecureTransport 헤더가 없는 경우 거부하도록 버킷 정책을 업데이트합니다.
D. PutObject에 x-amz-server-side-encryption 헤더 세트가 없는 경우 거부하도록 버킷 정책을 업데이트합니다.
더보기

Answer: D

x-amz-server-side-encryption 헤더는 Amazon S3 버킷에 업로드된 객체를 암호화하는 데 사용되어야 하는 암호화 방식을 지정하는 데 사용된다. 솔루션 설계자는 PutObject에 이 헤더 세트가 없는 경우 거부하도록 버킷 정책을 업데이트함으로써 버킷에 업로드된 모든 객체가 암호화되는 것을 보장할 수 있다.

Q322.솔루션 설계자는 회사를 위한 다중 계층 애플리케이션을 설계하고 있습니다. 애플리케이션 사용자는 모바일 장치에서 이미지를 업로드합니다. 애플리케이션은 각 이미지의 썸네일을 생성하고 이미지가 성공적으로 업로드되었음을 확인하는 메시지를 사용자에게 반환합니다.썸네일 생성에는 최대 60초가 소요될 수 있지만 회사는 사용자에게 원본 이미지가 수신되었음을 알리기 위해 더 빠른 응답 시간을 제공하고자 합니다. 솔루션 설계자는 서로 다른 애플리케이션 계층에 요청을 비동기식으로 전달하도록 애플리케이션을 설계해야 합니다.솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A. 사용자 지정 AWS Lambda 함수를 작성하여 썸네일을 생성하고 사용자에게 알립니다. 이미지 업로드 프로세스를 이벤트 소스로 사용하여 Lambda 함수를 호출합니다.
B. AWS Step Functions 워크플로를 생성합니다. 애플리케이션 계층 간의 오케스트레이션을 처리하고 썸네일 생성이 완료되면 사용자에게 알리도록 Step Functions를 구성합니다.
C. Amazon Simple Queue Service(Amazon SQS) 메시지 대기열을 생성합니다. 이미지가 업로드되면 썸네일 생성을 위해 SQS 대기열에 메시지를 배치합니다. 이미지가 수신되었음을 애플리케이션 메시지를 통해 사용자에게 알립니다.
D. Amazon Simple Notification Service(Amazon SNS)
알림 주제 및 구독을 생성합니다. 애플리케이션과 함께 하나의 구독을 사용하여 이미지 업로드가 완료된 후 썸네일을 생성하십시오. 섬네일 생성이 완료된 후 푸시 알림을 통해 사용자의 모바일 앱에 메시지를 보내려면 두 번째 구독을 사용하십시오
더보기

Answer: C

이 옵션은 메시지 손실이나 다른 서비스를 사용할 필요 없이 모든 볼륨의 소프트웨어 구성 요소 간에 메시지를 전송, 저장 및 수신할 수 있는 완전 관리형 메시지 대기열 서비스인 Amazon SQS를 사용하기 때문에 가장 효율적입니다. 또한 SQS 메시지 대기열을 사용하여 서로 다른 애플리케이션 계층에 요청을 비동기식으로 전달하여 썸네일 생성 프로세스에서 이미지 업로드 프로세스를 분리하고 확장성과 안정성을 활성화합니다. 또한 이미지가 수신되었다는 애플리케이션 메시지를 통해 사용자에게 경고하므로 섬네일 생성이 완료될 때까지 기다리는 것보다 사용자에게 더 빠른 응답 시간을 제공합니다.

Q323.회사 시설에는 건물 전체의 모든 입구에 배지 판독기가 있습니다. 배지를 스캔하면 판독기가 HTTPS를 통해 메시지를 보내 누가 해당 입구에 액세스하려고 시도했는지 나타냅니다.솔루션 설계자는 센서에서 보내는 이러한 메시지를 처리하는 시스템을 설계해야 합니다. 솔루션은 가용성이 높아야 하며 회사의 보안 팀이 분석할 수 있도록 결과를 제공해야 합니다.솔루션 설계자는 어떤 시스템 아키텍처를 추천해야 합니까?
A. Amazon EC2 인스턴스를 시작하여 HTTPS 엔드포인트 역할을 하고 메시지를 처리합니다. 결과를 Amazon S3 버킷에 저장하도록 EC2 인스턴스를 구성합니다.
B. Amazon API Gateway에서 HTTPS 엔드포인트를 생성합니다. AWS Lambda 함수를 호출하여 메시지를 처리하고 결과를 Amazon DynamoDB 테이블에 저장하도록 API Gateway 엔드포인트를 구성합니다.
C. Amazon Route 53을 사용하여 들어오는 센서 메시지를 AWS Lambda 함수로 보냅니다. 메시지를 처리하고 결과를 Amazon DynamoDB 테이블에 저장하도록 Lambda 함수를 구성합니다.
D. Amazon S3용 게이트웨이 VPC 엔드포인트를 생성합니다. 센서 데이터가 VPC 엔드포인트를 통해 S3 버킷에 직접 기록될 수 있도록 시설 네트워크에서 VPC로의 Site-to-Site VPN 연결을 구성합니다.
더보기

Answer: B

Amazon API Gateway HTTPS 엔드포인트로 배포하고 AWS Lambda를 배포하여 메시지를 처리하고 Amazon DynamoDB 테이블에 저장합니다. 이 옵션은 대량의 데이터를 쉽게 처리할 수 있는 가용성과 확장성이 뛰어난 솔루션을 제공합니다. 또한 다른 AWS 서비스와 통합되어 보안 팀의 데이터를 보다 쉽게 분석하고 시각화할 수 있습니다.

Q324.회사는 기본 온프레미스 파일 스토리지 볼륨에 대한 재해 복구 계획을 구현하려고 합니다. 파일 스토리지 볼륨은 로컬 스토리지 서버의 iSCSI(Internet Small Computer Systems Interface) 장치에서 마운트됩니다. 파일 스토리지 볼륨은 수백 테라바이트(TB)의 데이터를 보유합니다.회사는 최종 사용자가 대기 시간 없이 온프레미스 시스템의 모든 파일 유형에 즉시 액세스할 수 있기를 원합니다.회사의 기존 인프라를 최소한으로 변경하면서 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★
A. 온프레미스에서 호스팅되는 가상 머신(VM)으로 Amazon S3 파일 게이트웨이를 프로비저닝합니다. 로컬 캐시를 10TB로 설정합니다. NFS 프로토콜을 통해 파일에 액세스하도록 기존 애플리케이션을 수정합니다. 재해에서 복구하려면 Amazon EC2 인스턴스를 프로비저닝하고 파일이 포함된 S3 버킷을 탑재합니다.
B. AWS Storage Gateway 테이프 게이트웨이를 프로비저닝합니다. 데이터 백업 솔루션을 사용하여 모든 기존 데이터를 가상 테이프 라이브러리에 백업하십시오. 초기 백업이 완료된 후 야간에 실행되도록 데이터 백업 솔루션을 구성합니다. 재해에서 복구하려면 Amazon EC2 인스턴스를 프로비저닝하고 가상 테이프 라이브러리의 볼륨에서 Amazon Elastic Block Store(Amazon EBS) 볼륨으로 데이터를 복원합니다.
C. AWS Storage Gateway 볼륨 게이트웨이 캐시 볼륨을 프로비저닝합니다. 로컬 캐시를 10TB로 설정합니다. iSCSI를 사용하여 볼륨 게이트웨이 캐싱 볼륨을 기존 파일 서버에 마운트하고 모든 파일을 스토리지 볼륨에 복사합니다. 스토리지 볼륨의 예약된 스냅샷을 구성합니다. 재해에서 복구하려면 스냅샷을 Amazon Elastic Block Store(Amazon EBS) 볼륨으로 복원하고 EBS 볼륨을 Amazon EC2 인스턴스에 연결합니다.
D.기존 파일 스토리지 볼륨과 동일한 양의 디스크 공간으로 AWS Storage Gateway 볼륨 게이트웨이 저장 볼륨을 프로비저닝합니다. iSCSI를 사용하여 볼륨 게이트웨이 저장 볼륨을 기존 파일 서버에 마운트하고 모든 파일을 스토리지 볼륨에 복사합니다. 스토리지 볼륨의 예약된 스냅샷을 구성합니다. 재해에서 복구하려면 스냅샷을 Amazon Elastic Block Store(Amazon EBS) 볼륨으로 복원하고 EBS 볼륨을 Amazon EC2 인스턴스에 연결합니다.
더보기

Answer: D

"회사는 최종 사용자가 온프레미스 시스템의 모든 파일 유형에 즉시 액세스할 수 있기를 원합니다."

- 캐싱된 볼륨(Cached volumes): 가장 최근 데이터에 대한 액세스 대기 시간이 짧습니다.

- 저장 볼륨(Stored volumes): 전체 데이터 세트는 온프레미스이며 S3로 예약 백업되므로 볼륨 게이트웨이 저장 볼륨이 적절한 선택입니다.

Q325.회사는 Amazon S3 버킷에서 웹 애플리케이션을 호스팅하고 있습니다. 이 애플리케이션은 Amazon Cognito를 자격 증명 공급자로 사용하여 사용자를 인증하고 다른 S3 버킷에 저장된 보호된 리소스에 대한 액세스를 제공하는 JSON 웹 토큰(JWT)을 반환합니다.응용 프로그램 배포 시 사용자는 오류를 보고하고 보호된 콘텐츠에 액세스할 수 없습니다. 솔루션 설계자는 사용자가 보호된 콘텐츠에 액세스할 수 있도록 적절한 권한을 제공하여 이 문제를 해결해야 합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까?★★
A. Amazon Cognito 자격 증명 풀을 업데이트하여 보호된 콘텐츠에 액세스하기 위한 적절한 IAM 역할을 맡습니다.
B. 애플리케이션이 보호된 콘텐츠에 액세스할 수 있도록 S3 ACL을 업데이트합니다.
C. 애플리케이션을 Amazon S3에 재배포하여 S3 버킷의 최종적으로 일관된 읽기가 보호된 콘텐츠에 액세스하는 사용자의 기능에 영향을 미치지 않도록 합니다.
D.자격 증명 풀 내에서 사용자 지정 속성 매핑을 사용하고 사용자에게 보호된 콘텐츠에 액세스할 수 있는 적절한 권한을 부여하도록 Amazon Cognito 풀을 업데이트합니다.
더보기

Answer: A

Amazon Cognito 자격 증명 풀은 인증된 사용자에게 AWS 리소스에 액세스할 수 있는 권한이 제한된 임시 자격 증명 세트를 할당합니다. 각 사용자의 권한은 생성한 IAM 역할을 통해 제어됩니다.

Q326.이미지 호스팅 회사는 대규모 자산을 Amazon S3 Standard 버킷에 업로드합니다. 회사는 S3 API를 사용하여 멀티파트 업로드를 병렬로 사용하고 동일한 객체가 다시 업로드되면 덮어씁니다. 업로드 후 처음 30일 동안 개체에 자주 액세스합니다. 개체는 30일 후에 덜 자주 사용되지만 각 개체에 대한 액세스 패턴은 일관되지 않습니다. 회사는 저장된 자산의 고가용성과 탄력성을 유지하면서 S3 스토리지 비용을 최적화해야 합니다.
이러한 요구 사항을 충족하기 위해 솔루션 설계자가 권장해야 하는 작업 조합은 무엇입니까? (두 가지를 선택하세요.)   ★★
A. 30일 후에 자산을 S3 Intelligent-Tiering으로 이동합니다.
B. 불완전한 멀티파트 업로드를 정리하도록 S3 수명 주기 정책을 구성합니다.
C. 만료된 개체 삭제 마커를 정리하도록 S3 수명 주기 정책을 구성합니다.
D. 30일 후에 자산을 S3 Standard-Infrequent Access(S3 Standard-IA)로 이동합니다.
E. 30일 후 자산을 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 이동합니다
더보기

Answer: A,B

A(O) :30일 후에 자산을 S3 Intelligent-Tiering으로 이동함으로써 회사는 저장된 자산의 고가용성과 복원력을 유지하면서 스토리지 비용을 최적화할 수 있습니다.

B(O) :

S3 수명 주기는 개체가 수명 주기 동안 비용 효율적으로 저장되도록 개체를 관리할 수 있게 해주는 기능입니다. 수명 주기 규칙을 생성하여 Amazon S3가 객체 그룹에 적용하는 작업을 정의할 수 있습니다. 작업 중 하나는 업로드가 중단될 때 발생할 수 있는 불완전한 멀티파트 업로드를 중단하는 것입니다. 불완전한 멀티파트 업로드를 정리하도록 S3 수명 주기 정책을 구성함으로써 회사는 스토리지 비용을 줄이고 사용하지 않는 부분에 대한 비용 지불을 피할 수 있습니다.

C(X) : 만료된 객체 삭제 마커는 Amazon S3에서 자동으로 삭제되고 스토리지 비용이 발생하지 않기 때문에 옵션 C는 올바르지 않습니다.

D(X) : 옵션 D는 올바르지 않습니다. S3 Standard-IA는 자주 액세스하지 않지만 필요할 때 신속하게 액세스해야 하는 데이터용 스토리지 클래스이기 때문입니다.

E(X) : 옵션 E는 올바르지 않습니다. S3 One Zone-IA는 자주 액세스하지 않지만 필요할 때 신속하게 액세스해야 하는 데이터용 스토리지 클래스이기 때문입니다.

Q327.솔루션 설계자는 Amazon EC2 인스턴스를 호스팅하는 VPC 네트워크를 보호해야 합니다. EC2 인스턴스는 매우 민감한 데이터를 포함하고 프라이빗 서브넷에서 실행됩니다. 회사 정책에 따라 VPC에서 실행되는 EC2 인스턴스는 타사 URL을 사용하는 소프트웨어 제품 업데이트를 위해 인터넷에서 승인된 타사 소프트웨어 리포지토리에만 액세스할 수 있습니다. 다른 인터넷 트래픽은 차단되어야 합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까?★★
A. 아웃바운드 트래픽을 AWS 네트워크 방화벽 방화벽으로 라우팅하도록 프라이빗 서브넷의 라우팅 테이블을 업데이트합니다. 도메인 목록 규칙 그룹을 구성합니다.
B. AWS WAF 웹 ACL을 설정합니다. 소스 및 대상 IP 주소 범위 집합을 기반으로 트래픽 요청을 필터링하는 사용자 지정 규칙 집합을 만듭니다.
C. 엄격한 인바운드 보안 그룹 규칙을 구현합니다. URL을 지정하여 인터넷에서 승인된 소프트웨어 리포지토리에 대한 트래픽만 허용하는 아웃바운드 규칙을 구성합니다.
D. EC2 인스턴스 앞에 Application Load Balancer(ALB)를 구성합니다. 모든 아웃바운드 트래픽을 ALB로 보냅니다. 인터넷에 대한 아웃바운드 액세스를 위해 ALB의 대상 그룹에서 URL 기반 규칙 리스너를 사용합니다.
더보기

Answer: A 

EC2에서 네트워크 방화벽으로 아웃바운드 연결을 보냅니다. 네트워크 방화벽에서 소프트웨어 패치 다운로드를 위해 특정 도메인을 허용하고 다른 모든 도메인을 거부하는 상태 저장 아웃바운드 규칙을 생성합니다.

Q328.한 회사가 AWS 클라우드에서 3계층 전자상거래 애플리케이션을 호스팅하고 있습니다. 회사는 Amazon S3에서 웹사이트를 호스팅하고 웹사이트를 판매 요청을 처리하는 API와 통합합니다. 이 회사는 ALB(Application Load Balancer) 뒤에 있는 3개의 Amazon EC2 인스턴스에서 API를 호스팅합니다. API는 판매 요청을 비동기식으로 처리하는 백엔드 작업자와 함께 정적 및 동적 프런트 엔드 콘텐츠로 구성됩니다.회사는 신제품 출시 이벤트 기간 동안 판매 요청 건수가 급격하게 급증할 것으로 예상하고 있다.모든 요청이 성공적으로 처리되도록 하려면 솔루션 설계자가 무엇을 권장해야 합니까?
A. 동적 콘텐츠에 대한 Amazon CloudFront 배포를 추가합니다. 트래픽 증가를 처리하기 위해 EC2 인스턴스 수를 늘립니다.
B. 정적 콘텐츠에 대한 Amazon CloudFront 배포를 추가합니다. Auto Scaling 그룹에 EC2 인스턴스를 배치하여 네트워크 트래픽을 기반으로 새 인스턴스를 시작합니다.
C. 동적 콘텐츠에 대한 Amazon CloudFront 배포를 추가합니다. ALB 앞에 Amazon ElastiCache 인스턴스를 추가하여 API가 처리할 트래픽을 줄입니다.
D. 정적 콘텐츠에 대한 Amazon CloudFront 배포를 추가합니다. Amazon Simple Queue Service(Amazon SQS) 대기열을 추가하여 나중에 EC2 인스턴스에서 처리할 수 있도록 웹 사이트에서 요청을 수신합니다.
더보기

Answer: D

.든 요청이 성공적으로 처리되도록 -> SQS사용

Q329.보안 감사 결과 Amazon EC2 인스턴스가 정기적으로 패치되지 않는 것으로 나타났습니다. 솔루션 설계자는 대규모 EC2 인스턴스 전체에 대해 정기적인 보안 스캔을 실행할 솔루션을 제공해야 합니다. 또한 솔루션은 정기적으로 EC2 인스턴스를 패치하고 각 인스턴스의 패치 상태에 대한 보고서를 제공해야 합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. EC2 인스턴스에서 소프트웨어 취약성을 스캔하도록 Amazon Macie를 설정합니다. 각 EC2 인스턴스에서 cron 작업을 설정하여 정기적인 일정에 따라 인스턴스를 패치합니다.
B. 계정에서 Amazon GuardDuty를 켭니다. 소프트웨어 취약성에 대해 EC2 인스턴스를 스캔하도록 GuardDuty를 구성합니다. 정기적인 일정에 따라 EC2 인스턴스를 패치하도록 AWS Systems Manager Session Manager를 설정합니다.
C. 소프트웨어 취약성에 대해 EC2 인스턴스를 스캔하도록 Amazon Detective를 설정합니다. 정기적인 일정에 따라 EC2 인스턴스를 패치하도록 Amazon EventBridge 예약 규칙을 설정합니다.
D. 계정에서 Amazon Inspector를 켭니다. 소프트웨어 취약성에 대해 EC2 인스턴스를 스캔하도록 Amazon Inspector를 구성합니다. 정기적인 일정에 따라 EC2 인스턴스를 패치하도록 AWS Systems Manager Patch Manager를 설정합니다.
더보기

Answer: D

아마존 인스펙터는 애플리케이션의 취약점이나 모범 사례로부터의 일탈을 자동으로 평가하는 보안 평가 서비스이다. 이는 EC2 인스턴스의 소프트웨어 취약점을 스캔하는 데 사용될 수 있다. AWS Systems Manager Patch Manager는 EC2 인스턴스를 정기적인 스케줄에 따라 패치하는 데 사용될 수 있다. 이들 서비스는 함께 정기적인 보안 스캔을 실행하고 EC2 인스턴스를 정기적인 스케줄에 따라 패치하는 요구 사항을 충족하는 솔루션을 제공할 수 있다. 또한 Patch Manager는 각 인스턴스의 패치 상태에 대한 보고서를 제공할 수 있다.

Q330.회사에서 Amazon RDS DB 인스턴스에 데이터를 저장할 계획입니다. 회사는 미사용 데이터를 암호화해야 합니다.솔루션 설계자는 이 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A. AWS Key Management Service(AWS KMS)에서 키를 생성합니다. DB 인스턴스에 대한 암호화를 활성화합니다.
B. 암호화 키를 생성합니다. AWS Secrets Manager에 키를 저장합니다. 키를 사용하여 DB 인스턴스를 암호화합니다.
C. AWS Certificate Manager(ACM)에서 인증서를 생성합니다. 인증서를 사용하여 DB 인스턴스에서 SSL/TLS를 활성화합니다.
D. AWS Identity and Access Management(IAM)에서 인증서를 생성합니다. 인증서를 사용하여 DB 인스턴스에서 SSL/TLS를 활성화합니다.
더보기

Answer: A

Amazon RDS유휴 데이터를 암호화하려면 AWS Key Management Service(AWS KMS)를 사용하는 Amazon RDS의 암호화 기능을 사용할 수 있습니. 이 기능을 통해 Amazon RDS는 고유한 키로 각 데이터베이스 인스턴스를 암호화합니다. 이 키는 AWS KMS에 의해 안전하게 저장됩니다. 자체 키를 관리하거나 기본 AWS 관리형 키를 사용할 수 있습니다. DB 인스턴스에 대한 암호화를 활성화하면 Amazon RDS가 자동 백업, 읽기 전용 복제본 및 스냅샷을 비롯한 기본 스토리지를 암호화합니다.

Q331.회사는 30일 이내에 데이터 센터에서 AWS 클라우드로 20TB의 데이터를 마이그레이션해야 합니다. 회사의 네트워크 대역폭은 15Mbps로 제한되며 사용률이 70%를 초과할 수 없습니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A. AWS Snowball을 사용하십시오.
B. AWS DataSync를 사용합니다.
C. 안전한 VPN 연결을 사용하십시오.
D. Amazon S3 Transfer Acceleration을 사용합니다.
더보기

Answer: A

AWS Snowball AWS 클라우드 안팎으로 대량의 데이터 이동을 가속화하는 안전한 데이터 전송 솔루션입니다. 한 번에 최대 80TB의 데이터를 이동할 수 있고 최대 50Mbps의 네트워크 대역폭을 제공하므로 작업에 적합합니다. 또한 안전하고 사용하기 쉬우므로 이 마이그레이션에 이상적인 솔루션입니다.

Q332.회사는 직원들에게 기밀 및 민감한 파일에 대한 안전한 액세스를 제공해야 합니다. 회사는 권한이 있는 사용자만 파일에 액세스할 수 있기를 원합니다. 파일은 직원의 장치에 안전하게 다운로드되어야 합니다.
파일은 온프레미스 Windows 파일 서버에 저장됩니다. 그러나 원격 사용량의 증가로 인해 파일 서버의 용량이 부족합니다.이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. 파일 서버를 퍼블릭 서브넷의 Amazon EC2 인스턴스로 마이그레이션합니다. 인바운드 트래픽을 직원의 IP 주소로 제한하도록 보안 그룹을 구성합니다.
B. 파일을 Amazon FSx for Windows File Server 파일 시스템으로 마이그레이션합니다. Amazon FSx 파일 시스템을 온프레미스 Active Directory와 통합합니다. AWS 클라이언트 VPN을 구성합니다.
C. 파일을 Amazon S3로 마이그레이션하고 프라이빗 VPC 엔드포인트를 생성합니다. 다운로드를 허용하려면 서명된 URL을 만듭니다.
D. 파일을 Amazon S3로 마이그레이션하고 퍼블릭 VPC 엔드포인트를 생성합니다. 직원이 AWS IAM Identity Center(AWS Single Sign-On)로 로그인하도록 허용합니다.
더보기

Answer: B

Windows 파일 서버는 온프레미스이며 데이터를 클라우드에 복제할 무언가가 필요합니다. 우리가 가진 유일한 옵션은 Windows 파일 서버용 AWS FSx입니다. 또한 정보가 기밀이고 민감하기 때문에 적절한 사용자가 안전한 방식으로 정보에 액세스할 수 있도록 해야 합니다.

Q333.회사의 애플리케이션은 ALB(Application Load Balancer) 뒤의 Amazon EC2 인스턴스에서 실행됩니다. 인스턴스는 여러 가용 영역에 걸쳐 Amazon EC2 Auto Scaling 그룹에서 실행됩니다. 매월 1일 자정에 월말 재무 계산 일괄 처리가 실행되면 응용 프로그램이 훨씬 느려집니다. 이로 인해 EC2 인스턴스의 CPU 사용률이 즉시 100%에 도달하여 애플리케이션이 중단됩니다.애플리케이션이 워크로드를 처리하고 다운타임을 방지할 수 있도록 하기 위해 솔루션 설계자는 무엇을 권장해야 합니까?
A. ALB 앞에 Amazon CloudFront 배포를 구성합니다.
B. CPU 사용률을 기반으로 EC2 Auto Scaling 단순 조정 정책을 구성합니다.
C. 월별 일정을 기반으로 EC2 Auto Scaling 예약 조정 정책을 구성합니다.
D. EC2인스턴스에서 일부 워크로드를 제거하도록 Amazon ElastiCache를 구성합니다
더보기

Answer: C

월별 일정을 기반으로 EC2 Auto Scaling 예약 조정 정책을 구성하는 것이 가장 좋은 옵션입니다. 이는 월별 배치 실행이 시작되기 전에 EC2 인스턴스의 사전 조정을 허용하기 때문입니다. 이렇게 하면 애플리케이션이 다운타임 없이 증가된 워크로드를 처리할 수 있습니다. 예약된 조정 정책은 배치 실행 몇 시간 전에 Auto Scaling 그룹의 인스턴스 수를 늘리고 배치 실행이 완료된 후 인스턴스 수를 줄이도록 구성할 수 있습니다. 이렇게 하면 필요할 때 리소스를 사용할 수 있고 필요하지 않을 때 리소스를 낭비하지 않을 수 있습니다. 월별 배치 실행 중에 증가된 워크로드를 처리하고 다운타임을 방지하는 가장 적절한 솔루션은 월별 일정을 기반으로 EC2 Auto Scaling 예약 조정 정책을 구성하는 것입니다.

Q334.회사는 고객이 온프레미스 Microsoft Active Directory를 사용하여 Amazon S3에 저장된 파일을 다운로드할 수 있는 기능을 제공하려고 합니다. 고객의 애플리케이션은 SFTP 클라이언트를 사용하여 파일을 다운로드합니다.
운영 오버헤드를 최소화하고 고객의 애플리케이션을 변경하지 않으면서 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. Amazon S3용 SFTP로 AWS Transfer Family를 설정합니다. 통합된 Active Directory 인증을 구성합니다.
B. 온프레미스 클라이언트를 Amazon S3와 동기화하도록 AWS DMS(AWS Database Migration Service)를 설정합니다. 통합된 Active Directory 인증을 구성합니다.
C. AWS IAM Identity Center(AWS Single Sign-On)를 사용하여 온프레미스 위치와 S3 위치 간에 동기화하도록 AWS DataSync를 설정합니다.
D. SFTP로 Windows Amazon EC2 인스턴스를 설정하여 온프레미스 클라이언트를 Amazon S3와 연결합니다. AWS Identity and Access Management(IAM)를 통합합니다.
더보기

Answer: A

SFTP, FTP - think "Transfer" during test time

Q335.회사에서 갑자기 수요가 증가하고 있습니다. 회사는 Amazon 머신 이미지(AMI)에서 대규모 Amazon EC2 인스턴스를 프로비저닝해야 합니다. 인스턴스는 Auto Scaling 그룹에서 실행됩니다. 회사는 요구 사항을 충족하기 위해 최소 초기화 대기 시간을 제공하는 솔루션이 필요합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까? ★★
A. aws ec2 register-image 명령을 사용하여 스냅샷에서 AMI를 생성합니다. AWS Step Functions를 사용하여 Auto Scaling 그룹의 AMI를 교체하십시오.
B. 스냅샷에서 Amazon Elastic Block Store(Amazon EBS) 빠른 스냅샷 복원을 활성화합니다. 스냅샷을 사용하여 AMI를 프로비저닝합니다. Auto Scaling 그룹의 AMI를 새 AMI로 교체합니다.
C. Amazon Data Lifecycle Manager(Amazon DLM)에서 AMI 생성을 활성화하고 수명 주기 규칙을 정의합니다. Auto Scaling 그룹에서 AMI를 수정하는 AWS Lambda 함수를 생성합니다.
D. Amazon EventBridge를 사용하여 AMI를 프로비저닝하는 AWS Backup 수명 주기 정책을 호출합니다. EventBridge에서 Auto Scaling 그룹 용량 제한을 이벤트 소스로 구성합니다.
더보기

Answer: B

스냅샷에서 Amazon Elastic Block Store(Amazon EBS) 빠른 스냅샷 복원을 활성화하면 스냅샷에서 새 Amazon Machine Image(AMI)를 빠르게 생성할 수 있으므로 새 인스턴스를 프로비저닝할 때 초기화 지연 시간을 줄이는 데 도움이 됩니다. AMI가 프로비저닝되면 Auto Scaling 그룹의 AMI를 새 AMI로 교체할 수 있습니다. 이렇게 하면 업데이트된 AMI에서 새 인스턴스가 시작되고 증가된 수요를 신속하게 충족할 수 있습니다.

Q336.회사는 Amazon Aurora MySQL DB 클러스터를 스토리지로 사용하는 다중 계층 웹 애플리케이션을 호스팅합니다. 애플리케이션 계층은 Amazon EC2 인스턴스에서 호스팅됩니다. 회사의 IT 보안 지침에 따라 데이터베이스 자격 증명을 암호화하고 14일마다 교체해야 합니다.최소한의 운영 노력으로 이 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?
A. 새 AWS Key Management Service(AWS KMS) 암호화 키를 생성합니다. AWS Secrets Manager를 사용하여 적절한 자격 증명과 함께 KMS 키를 사용하는 새 암호를 생성합니다. 암호를 Aurora DB 클러스터와 연결합니다. 14일의 사용자 지정 순환 기간을 구성합니다.
B. AWS Systems Manager Parameter Store에서 두 개의 매개변수를 생성합니다. 하나는 사용자 이름을 문자열 매개변수로 사용하고 다른 하나는 SecureString 유형을 암호로 사용합니다. 암호 매개변수에 대해 AWS Key Management Service(AWS KMS) 암호화를 선택하고 애플리케이션 계층에서 이러한 매개변수를 로드합니다. 14일마다 암호를 교체하는 AWS Lambda 함수를 구현합니다.
C. 자격 증명이 포함된 파일을 AWS KMS(AWS Key Management Service) 암호화 Amazon Elastic File System(Amazon EFS) 파일 시스템에 저장합니다. 애플리케이션 계층의 모든 EC2 인스턴스에 EFS 파일 시스템을 탑재합니다. 응용 프로그램이 파일을 읽을 수 있고 슈퍼 사용자만 파일을 수정할 수 있도록 파일 시스템의 파일에 대한 액세스를 제한합니다. 14일마다 Aurora에서 키를 교체하고 새 자격 증명을 파일에 쓰는 AWS Lambda 함수를 구현합니다.
D. 애플리케이션이 자격 증명을 로드하는 데 사용하는 AWS KMS(AWS Key Management Service) 암호화 Amazon S3 버킷에 자격 증명이 포함된 파일을 저장합니다. 올바른 자격 증명이 사용되도록 정기적으로 파일을 응용 프로그램에 다운로드하십시오. 14일마다 Aurora 자격 증명을 교체하고 이 자격 증명을 S3 버킷의 파일에 업로드하는 AWS Lambda 함수를 구현합니다.
더보기
Answer: A

AWS KMS(AWS Key Management Service) 암호화 키를 새로 만듭니다. AWS Secrets Manager를 사용하여 KMS 키를 적절한 자격 증명으로 사용하는 새 비밀을 만듭니다. 오로라 DB 클러스터에 비밀을 연결합니다. 14일의 사용자 지정 회전 기간을 구성하십시오

Q337.회사에서 AWS에 웹 애플리케이션을 배포했습니다. 이 회사는 조정 요구 사항을 지원하기 위해 기본 DB 인스턴스와 5개의 읽기 전용 복제본을 사용하여 MySQL용 Amazon RDS에서 백엔드 데이터베이스를 호스팅합니다. 읽기 전용 복제본은 기본 DB 인스턴스보다 1초 이상 뒤처져서는 안 됩니다. 데이터베이스는 정기적으로 예약된 저장 프로시저를 실행합니다.웹 사이트의 트래픽이 증가함에 따라 복제본은 피크 로드 기간 동안 추가 지연을 경험합니다. 솔루션 설계자는 복제 지연을 최대한 줄여야 합니다. 솔루션 설계자는 애플리케이션 코드에 대한 변경을 최소화하고 지속적인 운영 오버헤드를 최소화해야 합니다.이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. 데이터베이스를 Amazon Aurora MySQL로 마이그레이션합니다. 읽기 전용 복제본을 Aurora 복제본으로 교체하고 Aurora Auto Scaling을 구성합니다. 저장 프로시저를 Aurora MySQL 기본 함수로 바꿉니다.
B. 데이터베이스 앞에 Redis 클러스터용 Amazon ElastiCache를 배포합니다. 응용 프로그램이 데이터베이스를 쿼리하기 전에 캐시를 확인하도록 응용 프로그램을 수정하십시오. 저장 프로시저를 AWS Lambda 함수로 바꿉니다.
C. 데이터베이스를 Amazon EC2 인스턴스에서 실행되는 MySQL 데이터베이스로 마이그레이션합니다. 모든 복제본 노드에 대해 컴퓨팅에 최적화된 대규모 EC2 인스턴스를 선택합니다. EC2 인스턴스에서 저장 프로시저를 유지합니다.
D. 데이터베이스를 Amazon DynamoDB로 마이그레이션합니다. 필요한 처리량을 지원하고 온디맨드 용량 확장을 구성하기 위해 많은 수의 RCU(읽기 용량 단위)를 프로비저닝합니다. 저장 프로시저를 DynamoDB 스트림으로 바꿉니다.
더보기

Answer: A

옵션 A애플리케이션 코드를 크게 변경하지 않고 복제 지연을 줄이고 진행 중인 운영 오버헤드를 최소화하는 가장 적합한 솔루션입니다. 데이터베이스를 Amazon Aurora MySQL로 마이그레이션하면 MySQL Amazon RDS에 비해 복제 성능과 확장성이 향상됩니다. Aurora 복제본은 더 빠른 복제를 제공하여 복제 지연을 줄이고 Aurora Auto Scaling은 들어오는 트래픽을 처리하기에 충분한 Aurora 복제본이 있는지 확인합니다. 또한 Aurora MySQL 기본 기능은 저장 프로시저를 대체하여 데이터베이스의 부하를 줄이고 성능을 향상시킬 수 있습니다.

Q338.솔루션 설계자는 대용량 SaaS(Software as a Service) 플랫폼에 대한 재해 복구(DR) 계획을 만들어야 합니다. 플랫폼의 모든 데이터는 Amazon Aurora MySQL DB 클러스터에 저장됩니다.DR 계획은 데이터를 보조 AWS 리전에 복제해야 합니다.이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?
A. 보조 리전의 Aurora 클러스터에 MySQL 바이너리 로그 복제를 사용합니다. 보조 리전에서 Aurora 클러스터용 DB 인스턴스 1개를 프로비저닝합니다.
B. DB 클러스터에 대한 Aurora 글로벌 데이터베이스를 설정합니다. 설정이 완료되면 보조 리전에서 DB 인스턴스를 제거합니다.
C. AWS Database Migration Service(AWS DMS)를 사용하여 데이터를 보조 리전의 Aurora 클러스터에 지속적으로 복제합니다. 보조 리전에서 DB 인스턴스를 제거합니다.
D. DB 클러스터에 대한 Aurora 글로벌 데이터베이스를 설정합니다. 보조 리전에서 최소 하나의 DB 인스턴스를 지정합니다.
더보기

Answer: D

기본 DB 클러스터에서 모든 보조로의 복제는 데이터베이스 엔진이 아닌 Aurora 스토리지 계층에서 처리하므로 변경 사항 복제 지연 시간은 일반적으로 1초 미만으로 최소화됩니다. 데이터베이스 엔진을 복제 프로세스에서 제외한다는 것은 데이터베이스 엔진이 워크로드 처리 전용임을 의미합니다. 또한 Aurora MySQL binlog(이진 로깅) 복제를 구성하거나 관리할 필요가 없음을 의미합니다.

Q339.회사에는 Amazon RDS MySQL DB 인스턴스에서 정보를 검색하는 자격 증명이 내장된 사용자 지정 애플리케이션이 있습니다. 경영진은 최소한의 프로그래밍 노력으로 애플리케이션을 더 안전하게 만들어야 한다고 말합니다.솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까? ★★
A. AWS Key Management Service(AWS KMS)를 사용하여 키를 생성합니다. AWS KMS에서 데이터베이스 자격 증명을 로드하도록 애플리케이션을 구성합니다. 자동 키 순환을 활성화합니다.
B. 애플리케이션 사용자를 위해 RDS for MySQL 데이터베이스에서 자격 증명을 생성하고 자격 증명을 AWS Secrets Manager에 저장합니다. Secrets Manager에서 데이터베이스 자격 증명을 로드하도록 애플리케이션을 구성합니다. Secret Manager에서 자격 증명을 교체하는 AWS Lambda 함수를 생성합니다.
C. 애플리케이션 사용자를 위해 RDS for MySQL 데이터베이스에서 자격 증명을 생성하고 자격 증명을 AWS Secrets Manager에 저장합니다. Secrets Manager에서 데이터베이스 자격 증명을 로드하도록 애플리케이션을 구성합니다. Secrets Manager를 사용하여 RDS for MySQL 데이터베이스에서 애플리케이션 사용자의 자격 증명 교체 일정을 설정합니다.
D. 애플리케이션 사용자를 위해 RDS for MySQL 데이터베이스에서 자격 증명을 생성하고 자격 증명을 AWS Systems Manager Parameter Store에 저장합니다. Parameter Store에서 데이터베이스 자격 증명을 로드하도록 애플리케이션을 구성합니다. Parameter Store를 사용하여 RDS for MySQL 데이터베이스에서 애플리케이션 사용자에 대한 자격 증명 교체 일정을 설정합니다.
더보기

Answer: C

응용 프로그램 사용자의 RDS for MySQL 데이터베이스에 자격 증명을 생성하고 AWS Secrets Manager에 자격 증명을 저장한다. Secrets Manager에서 데이터베이스 자격 증명을 로드하도록 응용 프로그램을 구성한다. Secrets Manager를 사용하여 응용 프로그램 사용자의 자격 증명 회전 일정을 RDS for MySQL 데이터베이스에 설정한다

Q340.미디어 회사는 AWS에서 웹 사이트를 호스팅합니다. 웹 사이트 애플리케이션의 아키텍처에는 Application Load Balancer(ALB) 뒤에 있는 Amazon EC2 인스턴스 플릿과 Amazon Aurora에서 호스팅되는 데이터베이스가 포함됩니다. 회사의 사이버 보안 팀은 애플리케이션이 SQL 주입에 취약하다고 보고합니다.
회사는 이 문제를 어떻게 해결해야 할까요?
A. ALB 앞에서 AWS WAF를 사용합니다. 적절한 웹 ACL을 AWS WAF와 연결합니다.
B. 고정 응답으로 SQL 주입에 응답하는 ALB 수신기 규칙을 생성합니다.
C. 모든 SQL 삽입 시도를 자동으로 차단하려면 AWS Shield Advanced에 가입하십시오.
D.모든 SQL 주입 시도를 자동으로 차단하도록 Amazon Inspector를 설정합니다.
더보기

Answer: A

WAF  방화벽 , WEB ACL을 통해 국나가, 지리적위치 IP 는 차단가능하나 리전차단옵션은 없음

Q341.회사에는 AWS Lake Formation에서 관리하는 Amazon S3 데이터 레이크가 있습니다. 이 회사는 데이터 레이크의 데이터를 Amazon Aurora MySQL 데이터베이스에 저장된 운영 데이터와 결합하여 Amazon QuickSight에서 시각화를 생성하려고 합니다. 회사는 회사의 마케팅 팀이 데이터베이스의 열 하위 집합에만 액세스할 수 있도록 열 수준 권한을 적용하려고 합니다.최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. Amazon EMR을 사용하여 데이터베이스에서 QuickSight SPICE 엔진으로 직접 데이터를 수집하십시오. 필요한 열만 포함합니다.
B. AWS Glue Studio를 사용하여 데이터베이스에서 S3 데이터 레이크로 데이터를 수집합니다. IAM 정책을 QuickSight 사용자에게 연결하여 열 수준 액세스 제어를 적용합니다. QuickSight에서 Amazon S3를 데이터 원본으로 사용합니다.
C. AWS Glue Elastic Views를 사용하여 Amazon S3의 데이터베이스에 대한 구체화된 보기를 생성합니다. QuickSight 사용자에 대한 열 수준 액세스 제어를 적용하려면 S3 버킷 정책을 생성합니다. QuickSight에서 Amazon S3를 데이터 원본으로 사용합니다.
D. Lake Formation청사진을 사용하여 데이터베이스에서 S3 데이터 레이크로 데이터를 수집합니다. Lake Formation을 사용하여 QuickSight 사용자에 대한 열 수준 액세스 제어를 적용합니다. QuickSight에서 Amazon Athena를 데이터 원본으로 사용합니다.
더보기

Answer: D

Amazon QuickSight AWS Lake Formation을 사용하여 열 수준 권한 부여를 시행합니다.

Amazon QuickSight 및 AWS Lake Formation을 통해 컬럼 수준의 권한 부여 시행

Q342.트랜잭션 처리 회사에는 Amazon EC2 인스턴스에서 실행되는 매주 스크립팅된 배치 작업이 있습니다. EC2 인스턴스는 Auto Scaling 그룹에 있습니다. 트랜잭션 수는 다를 수 있지만 각 실행에서 기록되는 기준 CPU 사용률은 60% 이상입니다. 회사는 작업이 실행되기 30분 전에 용량을 프로비저닝해야 합니다.현재 엔지니어는 Auto Scaling 그룹 파라미터를 수동으로 수정하여 이 작업을 완료합니다. 회사에는 Auto Scaling 그룹 수에 필요한 용량 추세를 분석할 리소스가 없습니다. 회사는 Auto Scaling 그룹의 원하는 용량을 수정하는 자동화된 방법이 필요합니다.최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★★
A. Auto Scaling 그룹에 대한 동적 조정 정책을 생성합니다. CPU 사용률 메트릭을 기반으로 확장하도록 정책을 구성합니다. 지표의 대상 값을 60%로 설정합니다.
B. Auto Scaling 그룹에 대한 예약 조정 정책을 생성합니다. 원하는 적정 용량, 최소 용량, 최대 용량을 설정합니다. 반복을 매주로 설정합니다. 일괄 작업이 실행되기 전 30분으로 시작 시간을 설정합니다.
C. Auto Scaling 그룹에 대한 예측 조정 정책을 생성합니다. 예측을 기반으로 확장하도록 정책을 구성합니다. 스케일링 지표를 CPU 사용률로 설정합니다. 지표의 대상 값을 60%로 설정합니다. 정책에서 작업이 실행되기 30분 전에 사전 실행되도록 인스턴스를 설정합니다.
D. Auto Scaling 그룹의 CPU 사용률 지표 값이 60%에 도달하면 AWS Lambda 함수를 호출하는 Amazon EventBridge 이벤트를 생성합니다. Auto Scaling 그룹의 원하는 용량과 최대 용량을 20% 늘리도록 Lambda 함수를 구성합니다.
더보기

Answer: C

이 옵션은 기계 학습을 사용하여 CloudWatch의 기록 데이터를 기반으로 용량 요구 사항을 예측하는 일종의 조정 정책인 Auto Scaling 그룹에 대한 예측 조정 정책을 사용하기 때문에 가장 효율적입니다. 또한 Auto Scaling 그룹이 트래픽 변경에 앞서 용량을 조정할 수 있도록 예측을 기반으로 확장하도록 정책을 구성합니다. 또한 조정 메트릭을 CPU 사용률로 설정하고 메트릭의 대상 값을 60%로 설정합니다. 이는 각 실행에서 기록되는 기준 CPU 사용률과 일치합니다. 또한 작업이 실행되기 30분 전에 인스턴스를 사전 실행하도록 설정하여 매주 스크립팅된 배치 작업이 시작되기 전에 충분한 용량이 프로비저닝되도록 합니다. 이 솔루션은 최소한의 운영 오버헤드로 작업이 실행되기 30분 전에 용량을 프로비저닝해야 하는 요구 사항을 충족합니다.

 

옵션 A는 변화하는 수요에 대응하여 Auto Scaling 그룹의 용량을 조정하는 일종의 조정 정책인 Auto Scaling 그룹에 대한 동적 조정 정책을 사용하기 때문에 효율성이 떨어집니다. 그러나 이것은 변화하는 트래픽에만 반응하기 때문에 작업 실행 30분 전에 용량을 프로비저닝하는 방법을 제공하지 않습니다.

 

옵션 B는 생성한 일정에 따라 Auto Scaling 그룹을 조정할 수 있는 조정 정책 유형인 Auto Scaling 그룹에 대해 예약된 조정 정책을 사용하기 때문에 효율성이 떨어집니다. 그러나 미리 정의된 지표 및 정책에 따라서만 확장되므로 예측 또는 CPU 사용률을 기반으로 확장하는 방법을 제공하지 않습니다.

 

옵션 D Auto Scaling 그룹의 CPU 사용률 지표 값이 60%에 도달할 때 Amazon EventBridge 이벤트를 사용하여 AWS Lambda 함수를 호출하기 때문에 효율성이 떨어집니다. 이는 이벤트를 기반으로 서버리스 함수를 트리거하는 방법입니다. 그러나 이것은 변화하는 트래픽에만 반응하기 때문에 작업 실행 30분 전에 용량을 프로비저닝하는 방법을 제공하지 않습니다.

Q343.솔루션 설계자는 회사의 재해 복구(DR) 아키텍처를 설계하고 있습니다. 이 회사에는 예약된 백업이 있는 프라이빗 서브넷의 Amazon EC2 인스턴스에서 실행되는 MySQL 데이터베이스가 있습니다. DR 설계에는 여러 AWS 리전이 포함되어야 합니다.최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. MySQL 데이터베이스를 여러 EC2 인스턴스로 마이그레이션합니다. DR 지역에서 대기 EC2 인스턴스를 구성합니다. 복제를 켭니다.
B. MySQL 데이터베이스를 Amazon RDS로 마이그레이션합니다. 다중 AZ 배포를 사용합니다. 다른 가용 영역에서 기본 DB 인스턴스에 대한 읽기 복제를 켭니다.
C. MySQL 데이터베이스를 Amazon Aurora 글로벌 데이터베이스로 마이그레이션합니다. 기본 리전에서 기본 DB 클러스터를 호스팅합니다. DR 리전에서 보조 DB 클러스터를 호스팅합니다.
D. S3 CRR(Cross-Region Replication)용으로 구성된 Amazon S3 버킷에 MySQL 데이터베이스의 예약된 백업을 저장합니다. 데이터 백업을 사용하여 DR 지역에서 데이터베이스를 복원하십시오.
더보기

Answer: C

MySQL 데이터베이스를 Amazon Aurora 글로벌 데이터베이스로 마이그레이션하는 것이 최소한의 운영 오버헤드가 필요하기 때문에 최상의 솔루션입니다. Aurora는 자동 장애 조치를 제공하는 관리형 서비스이므로 대기 인스턴스를 수동으로 구성할 필요가 없습니다. 기본 DB 클러스터는 기본 리전에서 호스팅할 수 있고 보조 DB 클러스터는 DR 리전에서 호스팅할 수 있습니다. 이 접근 방식을 통해 상당한 수동 개입 없이 데이터를 여러 리전에서 항상 사용 가능하고 최신 상태로 유지할 수 있습니다.

Q344.회사에는 Amazon Simple Queue Service(Amazon SQS)를 사용하여 메시지를 구문 분석하는 Java 애플리케이션이 있습니다. 애플리케이션은 크기가 256KB보다 큰 메시지를 구문 분석할 수 없습니다. 회사는 응용 프로그램이 50MB만큼 큰 메시지를 구문 분석할 수 있는 기능을 제공하는 솔루션을 구현하려고 합니다.
코드를 가장 적게 변경하여 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★★
A. Java용 Amazon SQS 확장 클라이언트 라이브러리를 사용하여 Amazon S3에서 256KB보다 큰 메시지를 호스팅합니다.
B. Amazon SQS 대신 Amazon EventBridge를 사용하여 애플리케이션에서 큰 메시지를 게시합니다.
C. 256KB보다 큰 메시지를 처리하도록 Amazon SQS의 제한을 변경합니다.
D. Amazon Elastic File System(Amazon EFS)에 256KB보다 큰 메시지를 저장합니다. 메시지에서 이 위치를 참조하도록 Amazon SQS를 구성합니다.
더보기

Answer: A

A. Amazon S3에서 256KB보다 큰 메시지를 호스팅하려면 Amazon SQS Extended Client Library for Java를 사용합니다.

Amazon SQS는 메시지 크기에 대해 256KB의 제한이 있다. 256KB보다 큰 메시지를 처리하기 위해 Java용 Amazon SQS 확장 클라이언트 라이브러리를 사용할 수 있다. 이 라이브러리는 256KB보다 큰 메시지를 Amazon S3에 저장할 수 있도록 하고 이를 검색하고 처리하는 방법을 제공한다. 이 솔루션을 사용하면 애플리케이션 코드는 크기가 50MB까지 메시지를 처리할 수 있으면서도 크게 변경되지 않은 상태로 유지될 수 있다.

Q345.회사에서 주요 웹 애플리케이션 중 하나의 콘텐츠에 대한 액세스를 제한하고 AWS에서 사용할 수 있는 권한 부여 기술을 사용하여 콘텐츠를 보호하려고 합니다. 이 회사는 서버리스 아키텍처와 100명 미만의 사용자를 위한 인증 솔루션을 구현하려고 합니다. 솔루션은 기본 웹 애플리케이션과 통합하고 웹 콘텐츠를 전역적으로 제공해야 합니다. 솔루션은 또한 회사의 사용자 기반이 성장함에 따라 확장되어야 하며 가능한 한 가장 낮은 로그인 대기 시간을 제공해야 합니다.이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까? ★★
A. 인증에 Amazon Cognito를 사용하십시오. 인증을 위해 Lambda@Edge를 사용합니다. Amazon CloudFront를 사용하여 전 세계적으로 웹 애플리케이션을 제공합니다.
B. 인증을 위해 Microsoft Active Directory용 AWS Directory Service를 사용합니다. 승인을 위해 AWS Lambda를 사용합니다. Application Load Balancer를 사용하여 웹 애플리케이션을 전역적으로 제공합니다.
C. 인증에 Amazon Cognito를 사용합니다. 승인을 위해 AWS Lambda를 사용합니다. Amazon S3 Transfer Acceleration을 사용하여 전 세계적으로 웹 애플리케이션을 제공합니다.
D.인증을 위해 Microsoft Active Directory용 AWS Directory Service를 사용합니다. 인증을 위해 Lambda@Edge를 사용합니다. AWS Elastic Beanstalk를 사용하여 전 세계적으로 웹 애플리케이션을 제공합니다
더보기
Answer: A

Amazon CloudFront는 웹 콘텐츠, 비디오 및 API를 대규모로 안전하게 전송할 수 있는 글로벌 콘텐츠 전송 네트워크(CDN) 서비스입니다. 인증을 위해 Cognito와 통합하고 인증을 위해 Lambda@Edge와 통합하므로 전 세계적으로 웹 콘텐츠를 제공하는 데 이상적인 선택입니다. Lambda@Edge AWS Lambda 기능을 사용자에게 더 가까운 곳에서 전역적으로 실행할 수 있는 서비스로, 지연 시간을 줄이고 응답 시간을 단축합니다. 또한 CloudFront의 콘텐츠를 보호하기 위해 에지에서 인증 로직을 처리할 수 있습니다. 이 시나리오에서 Lambda@Edge는 에지에서 실행하는 짧은 대기 시간 이점을 활용하면서 웹 애플리케이션에 대한 권한 부여를 제공할 수 있습니다.

Q346.회사의 데이터 센터에 노후화된 NAS(Network-Attached Storage) 어레이가 있습니다. NAS 어레이는 SMB 공유 및 NFS 공유를 클라이언트 워크스테이션에 제공합니다. 회사는 새 NAS 어레이를 구매하기를 원하지 않습니다. 회사는 또한 NAS 어레이의 지원 계약을 갱신하는 데 드는 비용을 원하지 않습니다. 일부 데이터는 자주 액세스되지만 대부분의 데이터는 비활성 상태입니다.솔루션 설계자는 데이터를 Amazon S3로 마이그레이션하고 S3 수명 주기 정책을 사용하며 클라이언트 워크스테이션에 대해 동일한 모양과 느낌을 유지하는 솔루션을 구현해야 합니다. 솔루션 설계자는 AWS Storage Gateway를 솔루션의 일부로 식별했습니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 유형의 스토리지 게이트웨이를 프로비저닝해야 합니까?
A. 볼륨 게이트웨이
B. 테이프 게이트웨이
C. Amazon FSx 파일 게이트웨이
D. Amazon S3 파일 게이트웨이
더보기

Answer: D

Q347.회사에는 Amazon EC2 인스턴스에서 실행 중인 애플리케이션이 있습니다. 솔루션 설계자는 회사의 현재 요구 사항을 기반으로 특정 인스턴스 제품군 및 다양한 인스턴스 크기로 회사를 표준화했습니다.회사는 향후 3년 동안 애플리케이션의 비용 절감을 극대화하고자 합니다. 회사는 애플리케이션 인기도 및 사용량에 따라 향후 6개월 내에 인스턴스 패밀리 및 크기를 변경할 수 있어야 합니다.이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까? ★★★
A. 컴퓨팅 절감 플랜(Compute Savings Plan)
B. EC2 인스턴스 절감 계획(EC2 Instance Savings Plan)
C. 영역 예약 인스턴스(Zonal Reserved Instances)
D. 표준 예약 인스턴스(Standard Reserved Instances)
더보기

Answer: A

Q348.회사는 웨어러블 장치를 사용하는 많은 참가자로부터 데이터를 수집합니다. 회사는 데이터를 Amazon DynamoDB 테이블에 저장하고 애플리케이션을 사용하여 데이터를 분석합니다. 데이터 워크로드는 일정하고 예측 가능합니다. 회사는 DynamoDB에 대한 예상 예산 이하를 유지하려고 합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까? ★★★
A. 프로비저닝 모드와 DynamoDB Standard-Infrequent Access(DynamoDB Standard-IA)를 사용합니다. 예상 워크로드에 대한 용량을 예약합니다.
B. 프로비저닝 모드를 사용합니다. RCU(읽기 용량 단위) 및 WCU(쓰기 용량 단위)를 지정합니다.
C. 주문형 모드를 사용합니다. 읽기 용량 단위(RCU) 및 쓰기 용량 단위(WCU)를 워크로드의 변경 사항을 수용할 수 있을 만큼 높게 설정합니다.
D. 주문형 모드를 사용합니다. 예약 용량이 있는 RCU(읽기 용량 단위) 및 WCU(쓰기 용량 단위)를 지정합니다.
더보기

Answer: B

주문형모드 = ON-DMAND 모드를 말하는것 

프로비저닝 모드가 비용효율적이다 

이 옵션은 테이블에서 읽기 및 쓰기를 처리하기 위한 읽기/쓰기 용량 모드인 프로비저닝 모드를 사용하기 때문에 가장 효율적입니다. 이를 통해 애플리케이션이 수행할 것으로 예상되는 읽기 및 쓰기 처리량을 지정할 수 있습니다. 또한 애플리케이션이 초당 읽거나 써야 하는 데이터의 양인 RCU(읽기 용량 단위) WCU(쓰기 용량 단위)를 지정합니다. 또한 프로비저닝 모드는 예측 가능한 워크로드에 대해 온디맨드 모드보다 비용이 낮기 때문에 DynamoDB에 대한 예상 예산 이하로 유지해야 하는 요구 사항을 충족합니다.

이 솔루션은 일정하고 예측 가능한 데이터 워크로드가 있는 웨어러블 장치를 사용하는 많은 참여자로부터 데이터를 수집해야 하는 요구 사항을 충족합니다.

 

옵션 A는 프로비저닝 모드와 DynamoDB Standard-Infrequent Access(DynamoDB Standard-IA)를 사용하기 때문에 덜 효율적입니다. DynamoDB Standard-Infrequent Access는 밀리초의 지연 시간이 필요한 자주 액세스하지 않는 항목을 위한 스토리지 클래스입니다. 그러나 이는 일정하고 예측 가능한 데이터 워크로드가 있는 웨어러블 장치를 사용하는 많은 참여자로부터 데이터를 수집해야 하는 요구 사항을 충족하지 않습니다. DynamoDB Standard-IA는 액세스 빈도가 30일에 한 번 미만인 항목에 더 적합하기 때문입니다.

 

옵션 C는 수요 변화에 따라 테이블 용량을 자동으로 조정하여 사용한 만큼만 비용을 지불하는 읽기/쓰기 용량 모드인 온디맨드 모드를 사용하기 때문에 효율성이 떨어집니다. 그러나 온디맨드 모드는 예측 가능한 워크로드에 대해 프로비저닝된 모드보다 비용이 높기 때문에 DynamoDB에 대한 예상 예산 이하로 유지해야 하는 요구 사항을 충족하지 않습니다.

 

옵션 D는 온디맨드 모드를 사용하고 예약 용량이 있는 RCU WCU를 지정하기 때문에 효율성이 떨어집니다. 이는 할인된 시간당 요금과 교환하여 테이블에 대한 읽기 및 쓰기 용량을 예약하는 방법입니다. 그러나 온디맨드 모드는 예측 가능한 워크로드에 대해 프로비저닝된 모드보다 비용이 높기 때문에 DynamoDB에 대한 예상 예산 이하로 유지해야 하는 요구 사항을 충족하지 않습니다. 또한 예약된 용량이 있는 RCU WCU를 지정하는 것은 프로비저닝 모드에만 적용되므로 온디맨드 모드에서는 불가능합니다.

Q349.회사는 ap-southeast-3 리전의 Amazon Aurora PostgreSQL 데이터베이스에 기밀 데이터를 저장합니다. 데이터베이스는 AWS Key Management Service(AWS KMS) 고객 관리형 키로 암호화됩니다. 이 회사는 최근에 인수되었으며 ap-southeast-3에서 인수 회사의 AWS 계정과 데이터베이스 백업을 안전하게 공유해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까? ★★★
A. 데이터베이스 스냅샷을 생성합니다. 스냅샷을 암호화되지 않은 새 스냅샷에 복사합니다. 인수 회사의 AWS 계정과 새 스냅샷을 공유합니다.
B. 데이터베이스 스냅샷을 생성합니다. 인수 회사의 AWS 계정을 KMS 키 정책에 추가합니다. 인수 회사의 AWS 계정과 스냅샷을 공유합니다.
C. 다른 AWS 관리형 KMS 키를 사용하는 데이터베이스 스냅샷을 생성합니다. 인수 회사의 AWS 계정을 KMS 키 별칭에 추가합니다. 인수 회사의 AWS 계정과 스냅샷을 공유합니다.
D. 데이터베이스 스냅샷을 생성합니다. 데이터베이스 스냅샷을 다운로드합니다. Amazon S3 버킷에 데이터베이스 스냅샷을 업로드합니다. 인수 회사의 AWS 계정에서 액세스를 허용하도록 S3 버킷 정책을 업데이트합니다.
더보기

Answer: B

원본 계정 내에서 대상 계정에 사용자 지정 AWS KMS 키에 대한 액세스 권한을 부여합니다.

1. 원본 계정에 로그인하고 DB 클러스터 스냅샷과 동일한 리전의 AWS KMS 콘솔로 이동합니다.

2. 탐색 창에서 고객 관리형 키를 선택합니다.

3. 사용자 지정 AWS KMS (이미 생성됨)를 선택합니다.

4. 다른 AWS 계정 섹션에서 다른 AWS 계정 추가를 선택한 다음 대상 계정의 AWS 계정 번호를 입력합니다.

그런 다음 DB 클러스터 스냅샷을 복사하고 공유합니다.

A(X) : 암호화되지않은

C(X)  : 다른 사용자 지정 AWS KMS 키를 생성할 필요가 없습니다.

D(X): 기밀문서 다운로드 X

Q350.한 회사에서 us-east-1 리전의 Microsoft SQL Server 단일 AZ DB 인스턴스용 100GB Amazon RDS를 사용하여 고객 트랜잭션을 저장합니다. 회사는 DB 인스턴스에 대한 고가용성 및 자동 복구가 필요합니다.
또한 회사는 1년에 여러 번 RDS 데이터베이스에 대한 보고서를 실행해야 합니다. 보고 프로세스로 인해 트랜잭션이 고객 계정에 게시되는 데 평소보다 오래 걸립니다. 회사는 보고 프로세스의 성능을 향상시킬 솔루션이 필요합니다.이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (2개 선택) ★★
A. 단일 AZ DB 인스턴스에서 다중 AZ 배포로 DB 인스턴스를 수정합니다.
B. 현재 DB 인스턴스의 스냅샷을 찍습니다. 다른 가용 영역의 새 RDS 배포로 스냅샷을 복원합니다.
C. 다른 가용 영역에서 DB 인스턴스의 읽기 전용 복제본을 생성합니다. 보고서에 대한 모든 요청은 읽기 전용 복제본을 가리킵니다.
D. 데이터베이스를 RDS Custom으로 마이그레이션합니다.
E. RDS Proxy를 사용하여 보고 요청을 유지 관리 기간으로 제한합니다.
더보기

Answer: A, C

B. 보고 과정의 성과 향상에 도움이 되지 않을 것입니다.
D. RDS Custom으로 마이그레이션해도 고가용성 및 자동 복구 문제는 해결되지 않습니다.
E. RDS Proxy는 확장성과 고가용성에 도움을 줄 수 있지만 보고 프로세스의 성능 문제는 다루지 않는다. 보고 요청을 유지 관리 창으로 제한한다고 해서 DB 인스턴스에 필요한 가용성과 복구가 제공되지 않는다.