AWS/자격증

[AWS] SAA -C03 DUMP 로 공부하자 22(711~740)

itat-yoon 2024. 9. 7. 11:27
Q711.전자상거래 회사가 AWS에서 애플리케이션을 실행합니다. 애플리케이션은 기본 데이터베이스에 대해 다중 AZ 모드의 Amazon Aurora PostgreSQL 클러스터를 사용합니다. 최근 판촉 캠페인 중에 애플리케이션에 과도한 읽기 로드 및 쓰기 로드가 발생했습니다. 사용자가 애플리케이션에 액세스하려고 할 때 시간 초과 문제가 발생했습니다.솔루션 아키텍트는 애플리케이션 아키텍처의 확장성과 가용성을 높여야 합니다.가동 중지 시간을 최소화하면서 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★★★
A. Aurora 클러스터를 소스로 포함하는 Amazon EventBridge 규칙을 생성하십시오. Aurora 클러스터의 상태 변경 이벤트를 기록하는 AWS Lambda 함수를 생성합니다. EventBridge 규칙의 대상으로 Lambda 함수를 추가합니다. 장애 조치할 추가 리더 노드를 추가합니다.
B. Aurora 클러스터를 수정하고 ZDR(제로 다운타임 재시작) 기능을 활성화하십시오. 클러스터에서 데이터베이스 활동 스트림을 사용하여 클러스터 상태를 추적합니다.
C. Aurora 클러스터에 추가 리더 인스턴스를 추가합니다. Aurora 클러스터에 대한 Amazon RDS 프록시 대상 그룹을 생성합니다.
D. Redis 캐시용 Amazon ElastiCache를 생성합니다. Write-around 방식의 AWS Database Migration Service(AWS DMS)를 사용하여 Aurora 클러스터에서 Redis로 데이터를 복제합니다.
더보기

Answer: C

읽기로드 는 RDS PROXY

읽기 로드 처리를 위한 리더 복제본과 연결을 위한 RDS 프록시 추가는 C만 실행 가능한 옵션입니다.

RDS proxy to handle timeout issue

Q712.한 회사가 AWS에서 웹 애플리케이션을 설계하고 있습니다. 애플리케이션은 회사의 기존 데이터 센터와 회사의 VPC 간의 VPN 연결을 사용합니다.이 회사는 DNS 서비스로 Amazon Route 53을 사용합니다. 애플리케이션은 프라이빗 DNS 레코드를 사용하여 VPC에서 온프레미스 서비스와 통신해야 합니다.가장 안전한 방식으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?★★★
A. Route 53 Resolver 아웃바운드 엔드포인트를 생성합니다. 해석기 규칙을 만듭니다. 해석기 규칙을 VPC와 연결합니다.
B. Route 53 Resolver 인바운드 엔드포인트를 생성합니다. 해석기 규칙을 만듭니다. 해석기 규칙을 VPC와 연결합니다.
C. Route 53 프라이빗 호스팅 영역을 생성합니다. 프라이빗 호스팅 영역을 VPC와 연결합니다.
D. Route 53 퍼블릭 호스팅 영역을 생성합니다. 서비스 통신을 허용하려면 각 서비스에 대한 레코드를 만듭니다.
더보기

Answer: A

가장 안전한 방식으로 웹 애플리케이션의 요구 사항을 충족하려면 회사는 Route 53 Resolver 아웃바운드 엔드포인트를 생성하고, 확인자 규칙을 생성하고, 확인자 규칙을 VPC와 연결해야 합니다. 솔루션을 사용하면 애플리케이션이 프라이빗 DNS 레코드를 사용하여 VPC의 온프레미스 서비스와 통신할 수 있습니다. Route 53 Resolver는 온프레미스 네트워크와 AWS VPC 간의 DNS 확인을 가능하게 하는 서비스입니다. 아웃바운드 엔드포인트는 확인자가 VPC에서 온프레미스 네트워크의 확인자로 DNS 쿼리를 전달하는 데 사용하는 IP 주소 집합입니다. 확인자 규칙은 확인자가 규칙에 지정한 IP 주소로 DNS 쿼리를 전달하는 도메인 이름을 지정하는 규칙입니다. 아웃바운드 엔드포인트와 확인자 규칙을 생성하고 이를 VPC와 연결함으로써 회사는 프라이빗 DNS 레코드를 사용하여 온프레미스 서비스에 대한 DNS 쿼리를 안전하게 확인할 수 있습니다.

다른 옵션은 요구 사항을 충족하지 않거나 안전하지 않기 때문에 올바르지 않습니다. Route 53 Resolver 인바운드 엔드포인트 생성, 해석기 규칙 생성 및 해석기 규칙을 VPC와 연결하는 것은 올바르지 않습니다. 왜냐하면 이 솔루션은 온프레미스 네트워크의 DNS 쿼리가 VPC의 리소스에 액세스하도록 허용하고 그 반대의 경우는 허용하지 않기 때문입니다. 인바운드 엔드포인트는 확인자가 온프레미스 네트워크의 확인자로부터 DNS 쿼리를 수신하는 데 사용하는 IP 주소 집합입니다. Route 53 프라이빗 호스팅 영역을 생성하고 이를 VPC와 연결하는 것은 올바르지 않습니다. 이 솔루션은 동일한 호스팅 영역과 연결된 VPC 또는 다른 VPC 내의 리소스에 대해서만 DNS 확인을 허용하기 때문입니다.

프라이빗 호스팅 영역은 하나 이상의 VPC에서만 액세스할 수 있는 DNS 레코드의 컨테이너입니다. Route 53 퍼블릭 호스팅 영역을 생성하고 서비스 통신을 허용하기 위해 각 서비스에 대한 레코드를 생성하는 것은 올바르지 않습니다. 이 솔루션은 온프레미스 서비스를 안전하지 않은 퍼블릭 인터넷에 노출시키기 때문입니다. 퍼블릭 호스팅 영역은 인터넷 어디에서나 액세스할 수 있는 DNS 레코드의 컨테이너입니다.

Q713.us-east-1 지역에서 사진 호스팅 서비스를 운영하는 회사가 있습니다. 이 서비스를 통해 여러 국가의 사용자가 사진을 업로드하고 볼 수 있습니다. 일부 사진은 몇 달 동안 많이 조회되지만 다른 사진은 일주일 미만 동안 조회됩니다. 이 애플리케이션에서는 각 사진당 최대 20MB까지 업로드할 수 있습니다. 이 서비스는 사진 메타데이터를 사용하여 각 사용자에게 표시할 사진을 결정합니다.가장 비용 효율적으로 적절한 사용자 액세스를 제공하는 솔루션은 무엇입니까? ★★★
A. Amazon DynamoDB에 사진을 저장합니다. DynamoDB Accelerator(DAX)를 켜서 자주 보는 항목을 캐시합니다.
B. Amazon S3 Intelligent-Tiering 스토리지 클래스에 사진을 저장합니다. 사진 메타데이터와 해당 S3 위치를 DynamoDB에 저장합니다.
C. Amazon S3 Standard 스토리지 클래스에 사진을 저장합니다. 30일이 지난 사진을 S3 Standard-Infrequent Access(S3 Standard-IA) 스토리지 클래스로 이동하도록 S3 수명 주기 정책을 설정합니다. 메타데이터를 추적하려면 객체 태그를 사용하세요.
D. Amazon S3 Glacier스토리지 클래스에 사진을 저장합니다. 30일이 지난 사진을 S3 Glacier Deep Archive 스토리지 클래스로 이동하도록 S3 수명 주기 정책을 설정합니다
더보기

Answer: B

일부 사진은 몇 달 동안 많이 조회되지만 다른 사진은 일주일 미만 동안 조회됩니다 > 예측불가 > Amazon S3 Intelligent-Tiering

이 솔루션은 성능에 영향을 주거나 운영 오버헤드 없이 액세스 패턴이 변경될 때 데이터를 가장 비용 효율적인 액세스 계층으로 이동하여 스토리지 비용을 자동으로 최적화하는 Amazon S3 Intelligent-Tiering 스토리지 클래스를 사용하기 때문에 가장 비용 효율적으로 적절한 사용자 액세스를 제공합니다1 . 이 스토리지 클래스는 몇 달 또는 일주일 미만 동안 많이 본 사진과 같이 알 수 없거나 변화하거나 예측할 수 없는 액세스 패턴이 있는 데이터에 이상적입니다. 사진 메타데이터와 해당 S3 위치를 DynamoDB에 저장함으로써 애플리케이션은 각 사용자에 대한 관련 사진을 신속하게 쿼리하고 검색할 수 있습니다.

DynamoDB는 키-값 및 문서 데이터 모델을 지원하는 빠르고 확장 가능하며 완전 관리형 NoSQL 데이터베이스 서비스입니다.

Q714.한 회사는 Application Load Balancer 뒤에 있는 Amazon EC2 인스턴스에서 고가용성 웹 애플리케이션을 실행합니다. 회사는 Amazon CloudWatch 지표를 사용합니다.웹 애플리케이션에 대한 트래픽이 증가함에 따라 일부 EC2 인스턴스는 많은 미해결 요청으로 인해 과부하가 발생합니다. CloudWatch 지표는 처리된 요청 수와 일부 EC2 인스턴스로부터 응답을 수신하는 시간이 모두 다른 EC2 인스턴스에 비해 높다는 것을 보여줍니다. 회사는 이미 과부하된 EC2 인스턴스에 새 요청이 전달되는 것을 원하지 않습니다.어떤 솔루션이 이러한 요구 사항을 충족합니까? ★★★
A. RequestCountPerTarget 및 ActiveConnectionCount CloudWatch 지표를 기반으로 하는 라운드 로빈 라우팅 알고리즘을 사용하십시오.
B. RequestCountPerTarget 및 ActiveConnectionCount CloudWatch 지표를 기반으로 최소 미해결 요청 알고리즘을 사용합니다.
C. RequestCount 및 TargetResponseTime CloudWatch 지표를 기반으로 라운드 로빈 라우팅 알고리즘을 사용합니다.
D. RequestCount 및 TargetResponseTime CloudWatch 지표를 기반으로 최소 미해결 요청 알고리즘을 사용합니다.
더보기

Answer: D

최소미결요청 : 요청시간, 응답시간지표로해결

LOR(최소 미결 요청) 알고리즘은 들어오는 요청을 미결 요청이 가장 적은 대상에 분산시키는 로드 밸런싱 알고리즘입니다. 이는 단일 대상의 과부하를 방지하고 웹 애플리케이션의 전반적인 성능과 가용성을 향상시키는 데 도움이 됩니다. LOR 알고리즘은 RequestCount TargetResponseTime CloudWatch 지표를 사용하여 미해결 요청 수와 각 대상의 응답 시간을 결정할 수 있습니다. 이러한 지표는 각 대상에서 처리된 요청 수와 요청이 로드 밸런서를 떠난 후 로드 밸런서가 대상의 응답을 수신할 때까지 경과된 시간을 각각 측정합니다. LOR 알고리즘은 이러한 메트릭을 사용하여 사용량이 적고 응답성이 높은 대상으로 새 요청을 라우팅하고 이미 과부하되었거나 느린 대상으로 요청을 보내는 것을 방지할 수 있습니다. 이 솔루션은 회사의 요구 사항을 충족합니다.

Q715.회사는 Amazon EC2, AWS Fargate 및 AWS Lambda를 사용하여 회사의 AWS 계정에서 여러 워크로드를 실행합니다. 회사는 Compute Savings Plan을 최대한 활용하기를 원합니다. 회사는 Compute Savings Plans 적용 범위가 줄어들면 알림을 받기를 원합니다.가장 효율적인 운영 효율성으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★
A. AWS 예산을 사용하여 Savings Plans에 대한 일일 예산을 생성합니다. 적절한 이메일 메시지 수신자에게 알림을 보내려면 적용 범위 임계값으로 예산을 구성하십시오.
B. Savings Plans에 대한 적용 범위 보고서를 실행하는 Lambda 함수를 생성합니다. Amazon Simple Email Service(Amazon SES)를 사용하여 해당 이메일 메시지 수신자에게 보고서를 이메일로 보냅니다.
C. Savings Plans 예산에 대한 AWS 예산 보고서를 생성합니다. 빈도를 매일로 설정하세요.
D. Savings Plans 알림 구독을 만듭니다. 모든 알림 옵션을 활성화합니다. 알림을 받으려면 이메일 주소를 입력하세요.
더보기

Answer: A

AWS 예산에서 활용률, 보장 범위 및 비용이 설정된 범위에 포함되지 않을 경우 알려주는 저축 계획을 설정할 수 있습니다.

Q716.한 회사가 AWS에서 실시간 데이터 수집 솔루션을 실행하고 있습니다. 이 솔루션은 최신 버전의 Amazon Managed Streaming for Apache Kafka(Amazon MSK)로 구성됩니다. 이 솔루션은 3개의 가용 영역에 걸쳐 프라이빗 서브넷의 VPC에 배포됩니다.솔루션 설계자는 인터넷을 통해 공개적으로 사용할 수 있도록 데이터 수집 솔루션을 재설계해야 합니다. 전송 중인 데이터도 암호화되어야 합니다.가장 효율적인 운영 효율성으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★★★
A. 기존 VPC에서 퍼블릭 서브넷을 구성합니다. 퍼블릭 서브넷에 MSK 클러스터를 배포합니다. 상호 TLS 인증을 활성화하려면 MSK 클러스터 보안 설정을 업데이트하세요.
B. 퍼블릭 서브넷이 있는 새 VPC를 생성합니다. 퍼블릭 서브넷에 MSK 클러스터를 배포합니다. 상호 TLS 인증을 활성화하려면 MSK 클러스터 보안 설정을 업데이트하세요.
C. 프라이빗 서브넷을 사용하는 ALB(Application Load Balancer)를 배포합니다. HTTPS 프로토콜에 대한 VPC CIDR 블록의 인바운드 트래픽을 허용하도록 ALB 보안 그룹 인바운드 규칙을 구성합니다.
D. 프라이빗 서브넷을 사용하는 NLB(Network Load Balancer)를 배포합니다. 인터넷을 통한 HTTPS 통신을 위해 NLB 수신기를 구성합니다.
더보기

Answer: A

가장 운영 효율성이 뛰어나며 요구 사항을 충족하는 솔루션은 기존 VPC에 퍼블릭 서브넷을 구성하고 퍼블릭 서브넷에 MSK 클러스터를 배포하는 것입니다. 이 솔루션을 사용하면 새 VPC를 생성하거나 로드 밸런서를 배포하지 않고도 인터넷을 통해 데이터 수집 솔루션을 공개적으로 사용할 수 있습니다. 또한 이 솔루션은 상호 TLS 인증을 활성화하여 전송 중인 데이터가 암호화되도록 보장합니다. 이를 위해서는 클라이언트와 서버 모두 확인을 위해 인증서를 제시해야 합니다. 이 솔루션은 Apache Kafka 2.6.0 이상 버전을 실행하는 클러스터에서 사용할 수 있는 Amazon MSK의 퍼블릭 액세스 기능을 활용합니다.

Q717.회사에서 온프레미스 레거시 애플리케이션을 AWS로 마이그레이션하려고 합니다. 애플리케이션은 온프레미스 ERP(전사적 자원 관리) 시스템에서 고객 주문 파일을 수집합니다. 그런 다음 애플리케이션은 파일을 SFTP 서버에 업로드합니다. 애플리케이션은 매시간 주문 파일을 확인하는 예약된 작업을 사용합니다.
회사에는 이미 온프레미스 네트워크에 연결된 AWS 계정이 있습니다. AWS의 새로운 애플리케이션은 기존 ERP 시스템과의 통합을 지원해야 합니다. 새로운 애플리케이션은 안전하고 탄력적이어야 하며 SFTP 프로토콜을 사용하여 ERP 시스템의 주문을 즉시 처리해야 합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까? ★★★
A. 두 개의 가용 영역에 AWS Transfer Family SFTP 인터넷 연결 서버를 생성합니다. Amazon S3 스토리지를 사용하세요. 주문 파일을 처리하는 AWS Lambda 함수를 생성합니다. S3 이벤트 알림을 사용하여 s3:ObjectCreated:* 이벤트를 Lambda 함수로 보냅니다.
B. 하나의 가용 영역에 AWS Transfer Family SFTP 인터넷 연결 서버를 생성합니다. Amazon Elastic File System(Amazon EFS) 스토리지를 사용합니다. 주문 파일을 처리하는 AWS Lambda 함수를 생성합니다. Transfer Family 관리형 워크플로를 사용하여 Lambda 함수를 호출합니다.
C. 두 개의 가용 영역에 AWS Transfer Family SFTP 내부 서버를 생성합니다. Amazon Elastic File System(Amazon EFS) 스토리지를 사용합니다. 주문 파일을 처리하기 위해 AWS Step Functions 상태 머신을 생성합니다. Amazon EventBridge Scheduler를 사용하면 상태 시스템을 호출하여 Amazon EFS에서 주문 파일을 주기적으로 확인할 수 있습니다.
D. 두 개의 가용 영역에 AWS Transfer Family SFTP 내부 서버를 생성합니다. Amazon S3 스토리지를 사용하세요. 주문 파일을 처리하는 AWS Lambda 함수를 생성합니다. Transfer Family 관리형 워크플로를 사용하여 Lambda 함수를 호출합니다.
더보기

Answer: D

이 솔루션은 다음 구성 요소와 기능을 사용하므로 요구 사항을 충족합니다.

AWS Transfer Family SFTP 내부 서버: 이를 통해 애플리케이션은 프라이빗 연결을 통해 SFTP 프로토콜을 사용하여 온프레미스 ERP 시스템에서 AWS로 주문 파일을 안전하게 전송할 수 있습니다. 내부 서버는 고가용성과 내결함성을 위해 두 개의 가용 영역에 배포됩니다.

Amazon S3 스토리지: 주문 파일을 위한 확장 가능하고 내구성이 뛰어나며 비용 효과적인 객체 스토리지를 제공합니다. Amazon S3는 또한 데이터 보호 및 규정 준수를 위한 수명 주기 정책 및 버전 관리는 물론 저장 및 전송 중 암호화도 지원합니다.

AWS Lambda 기능: 이를 통해 애플리케이션은 서버를 프로비저닝하거나 관리하지 않고도 서버리스 방식으로 주문 파일을 처리할 수 있습니다. Lambda 함수는 데이터 검증, 구문 분석 또는 강화와 같은 주문 파일에 대한 사용자 지정 논리 또는 변환을 수행할 수 있습니다.

Transfer Family 관리형 워크플로: 파일이 SFTP 서버에 업로드되자마자 Lambda 함수를 트리거하여 파일 처리 작업의 조정을 단순화합니다. 관리형 워크플로는 오류 처리, 재시도 정책 및 로깅 기능도 제공합니다.

Q718.회사의 애플리케이션은 Apache Hadoop 및 Apache Spark를 사용하여 온프레미스에서 데이터를 처리합니다. 기존 인프라는 확장이 불가능하고 관리가 복잡합니다.솔루션 설계자는 운영 복잡성을 줄이는 확장 가능한 솔루션을 설계해야 합니다. 솔루션은 온프레미스에서 데이터 처리를 유지해야 합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까?★
A. AWS Site-to-Site VPN을 사용하여 온프레미스 Hadoop 분산 파일 시스템(HDFS) 데이터 및 애플리케이션에 액세스하십시오. Amazon EMR 클러스터를 사용하여 데이터를 처리합니다.
B. AWS DataSync를 사용하여 온프레미스 Hadoop 분산 파일 시스템(HDFS) 클러스터에 연결합니다. 데이터를 처리할 Amazon EMR 클러스터를 생성합니다.
C. Apache Hadoop 애플리케이션과 Apache Spark 애플리케이션을 AWS Outposts의 Amazon EMR 클러스터로 마이그레이션합니다. EMR 클러스터를 사용하여 데이터를 처리합니다.
D. AWS Snowball 장치를 사용하여 데이터를 Amazon S3 버킷으로 마이그레이션합니다. 데이터를 처리할 Amazon EMR 클러스터를 생성합니다.
더보기

Answer: C

C 커버 요구 사항: 솔루션은 내부에서 데이터 처리를 계속 유지해야 합니다

Q719.한 회사가 온프레미스 스토리지에서 AWS로 대량의 데이터를 마이그레이션하고 있습니다. 동일한 AWS 리전에 있는 Windows, Mac 및 Linux 기반 Amazon EC2 인스턴스는 SMB 및 NFS 스토리지 프로토콜을 사용하여 데이터에 액세스합니다. 회사는 정기적으로 데이터의 일부에 액세스합니다. 회사는 나머지 데이터에 드물게 액세스합니다.회사는 데이터를 호스팅하기 위한 솔루션을 설계해야 합니다.최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?★★★
A. EFS Intelligent-Tiering을 사용하는 Amazon Elastic File System(Amazon EFS) 볼륨을 생성합니다. AWS DataSync를 사용하여 데이터를 EFS 볼륨으로 마이그레이션합니다.
B. ONTAP 인스턴스용 Amazon FSx를 생성합니다. 자동 계층화 정책을 사용하는 루트 볼륨이 있는 FSx for ONTAP 파일 시스템을 생성합니다. 데이터를 FSx for ONTAP 볼륨으로 마이그레이션합니다.
C. S3 Intelligent-Tiering을 사용하는 Amazon S3 버킷을 생성합니다. AWS Storage Gateway Amazon S3 파일 게이트웨이를 사용하여 데이터를 S3 버킷으로 마이그레이션합니다.
D. OpenZFS 파일 시스템용 Amazon FSx를 생성합니다. 데이터를 새 볼륨으로 마이그레이션합니다.
더보기

Answer: B

SMB 및 NFS 스토리지 프로토콜,완전 프로비저닝 > NetApp ONTAP용 Amazon FsX 기능

NetApp ONTAP용 Amazon FsX 기능: 네트워크 파일 시스템(NFS), 서버 메시지 블록(SMB) 및 인터넷 소형 컴퓨터 시스템 인터페이스(iCSI) 프로토콜을 사용하여 데이터에 대한 다중 프로토콜 액세스

Q720.한 제조 회사가 AWS에서 보고서 생성 애플리케이션을 실행하고 있습니다. 애플리케이션은 약 20분 안에 각 보고서를 생성합니다. 애플리케이션은 단일 Amazon EC2 인스턴스에서 실행되는 모놀리스로 구축되었습니다. 애플리케이션에는 긴밀하게 결합된 모듈을 자주 업데이트해야 합니다. 회사에서 새로운 기능을 추가하면 애플리케이션을 유지 관리하기가 복잡해집니다.회사에서 소프트웨어 모듈을 패치할 때마다 애플리케이션에 가동 중지 시간이 발생합니다. 보고서 생성은 중단된 후에 처음부터 다시 시작되어야 합니다. 회사는 애플리케이션이 유연하고 확장 가능하며 점진적으로 개선될 수 있도록 애플리케이션을 재설계하려고 합니다. 회사는 애플리케이션 가동 중지 시간을 최소화하려고 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. AWS Lambda에서 최대 프로비저닝 동시성을 갖춘 단일 함수로 애플리케이션을 실행합니다.
B. 스팟 집합 기본 할당 전략을 사용하여 Amazon EC2 스팟 인스턴스에서 애플리케이션을 마이크로서비스로 실행합니다.
C. 서비스 자동 조정을 통해 Amazon Elastic Container Service(Amazon ECS)에서 애플리케이션을 마이크로서비스로 실행합니다.
D. 일괄 배포 전략을 사용하여 AWS Elastic Beanstalk에서 애플리케이션을 단일 애플리케이션 환경으로 실행합니다.
더보기

Answer: C

요구 사항을 충족하는 솔루션은 Amazon Elastic Container Service(Amazon ECS)에서 서비스 자동 확장 기능을 갖춘 마이크로서비스로 애플리케이션을 실행하는 것입니다. 이 솔루션을 사용하면 애플리케이션을 유연하고 확장 가능하며 점진적으로 개선할 수 있을 뿐만 아니라 애플리케이션 가동 중지 시간도 최소화할 수 있습니다. 모놀리식 애플리케이션을 마이크로서비스로 분할함으로써 회사는 전체 애플리케이션에 영향을 주지 않고 모듈을 분리하고 독립적으로 업데이트할 수 있습니다. Amazon ECS에서 마이크로서비스를 실행함으로써 회사는 이식성, 효율성, 격리와 같은 컨테이너화의 이점을 활용할 수 있습니다. 서비스 자동 확장을 활성화함으로써 회사는 수요에 따라 각 마이크로서비스에 대해 실행되는 컨테이너 수를 조정하여 최적의 성능과 비용을 보장할 수 있습니다. 또한 Amazon ECS는 업데이트 중 가동 중지 시간을 줄이거나 없앨 수 있는 롤링 업데이트 또는 블루/그린 배포와 같은 다양한 배포 전략을 지원합니다.

다른 솔루션은 요구 사항을 충족하지 않거나 새로운 문제를 야기하기 때문에 첫 번째 솔루션만큼 효과적이지 않습니다. 최대 동시성 프로비저닝을 통해 AWS Lambda에서 애플리케이션을 단일 함수로 실행하면 모놀리스를 마이크로서비스로 분해하지도 않고 유지 관리의 복잡성을 줄여주지도 않기 때문에 요구 사항을 충족하지 못합니다. 또한 Lambda 함수는 실행 시간(15), 메모리 크기(10GB) 및 동시성 할당량에 의해 제한되는데, 이는 보고서 생성 애플리케이션에 충분하지 않을 수 있습니다. 스팟 집합 기본 할당 전략을 사용하여 Amazon EC2 스팟 인스턴스에서 마이크로서비스로 애플리케이션을 실행하면 현물 가격 변동으로 인해 중단될 위험이 있으므로 요구 사항을 충족하지 못합니다. 스팟 인스턴스는 가용성이나 안정성이 보장되지 않으며 AWS에서 언제든지 2분 경고 후 회수할 수 있습니다.

이로 인해 보고서 생성이 실패하거나 처음부터 다시 시작될 수 있습니다. 한꺼번에 배포 전략을 사용하는 단일 애플리케이션 환경으로 AWS Elastic Beanstalk에서 애플리케이션을 실행하면 모놀리스를 마이크로서비스로 분해하지도 않고 애플리케이션 가동 중지 시간을 최소화하지도 않기 때문에 요구 사항을 충족하지 못합니다. 일괄 배포 전략은 업데이트를 모든 인스턴스에 동시에 배포하므로 애플리케이션이 잠시 중단됩니다.

Q721.한 회사는 대규모 웹 애플리케이션을 서버리스 마이크로서비스 아키텍처로 재설계하려고 합니다. 애플리케이션은 Amazon EC2 인스턴스를 사용하며 Python으로 작성되었습니다.회사는 마이크로서비스로 테스트하기 위해 웹 애플리케이션의 한 구성 요소를 선택했습니다. 구성 요소는 초당 수백 개의 요청을 지원합니다. 회사는 Python을 지원하는 AWS 솔루션에서 마이크로서비스를 생성하고 테스트하려고 합니다. 또한 솔루션은 자동으로 확장되어야 하며 최소한의 인프라와 최소한의 운영 지원이 필요합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까?★★★
A. 최신 Amazon Linux 운영 체제를 실행하는 EC2 인스턴스의 자동 확장 기능이 있는 스팟 집합을 사용하십시오.
B. 고가용성이 구성된 AWS Elastic Beanstalk 웹 서버 환경을 사용하십시오.
C. Amazon Elastic Kubernetes Service(Amazon EKS)를 사용합니다. 자체 관리형 EC2 인스턴스의 Auto Scaling 그룹을 시작합니다.
D. 사용자 정의 개발 코드를 실행하는 AWS Lambda 함수를 사용하십시오.
더보기

Answer: D

A: EC2 인스턴스 자동 확장 - 많은 오버헤드 + 인프라
B: 회사는 마이크로서비스로 테스트할 웹 애플리케이션의 한 구성 요소를 선택했습니다. 이 구성 요소는 초당 수백 건의 요청을 지원합니다. > 작업자 프로세스가 필요한 경우 라스트릭 빈스톡은 잘못된 선택입니다. 작업자 프로세스의 핵심은 메인 웹 앱의 속도를 늦추지 않고 백그라운드에서 작업을 수행하는 것입니다. 하지만 Elastic Beanstalk는 확장 가능한 방식으로 이 옵션을 지원하지 않습니다.
또한 엄선된 마이크로서비스를 하나만 테스트하고 싶어하는데, 엘라스틱 빈스톡을 사용하는 것은 다소 무리라고 생각합니다. 그래도 도전하게 되어 기쁩니다!
C: 자체 관리 EC2 인스턴스 > 인프라 + 운영 오버헤드
D: 람다는 파이썬을 지원하고, 마이크로서비스는 15분 이상 빨라야 하며, 최악의 경우 테스트가 실패할 수 있습니다... (그게 바로 테스트 목적입니다...)
I'd go for D

Q722.회사에는 온프레미스 위치에서 AWS 계정으로 AWS Direct Connect 연결이 있습니다. AWS 계정에는 동일한 AWS 리전에 30개의 서로 다른 VPC가 있습니다. VPC는 프라이빗 VIF(가상 인터페이스)를 사용합니다. 각 VPC에는 회사가 관리하는 다른 네트워크와 겹치지 않는 CIDR 블록이 있습니다.회사는 네트워킹 아키텍처를 중앙에서 관리하는 동시에 각 VPC가 다른 모든 VPC 및 온프레미스 네트워크와 계속 통신할 수 있기를 원합니다.최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. 전송 게이트웨이를 생성하고 Direct Connect 연결을 새 전송 VIF와 연결합니다. Transit Gateway의 경로 전파 기능을 켭니다.
B. Direct Connect 게이트웨이를 생성합니다. 새 게이트웨이를 사용하려면 프라이빗 VIF를 다시 생성합니다. 새로운 가상 프라이빗 게이트웨이를 생성하여 각 VPC를 연결합니다.
C. 전송 VP를 생성합니다. 전송 VPC에 대한 Direct Connect 연결을 생성합니다. 리전의 다른 모든 VPC 간에 피어링 연결을 생성합니다. 라우팅 테이블을 업데이트합니다.
D. 온프레미스에서 각 VPC로 AWS Site-to-Site VPN 연결을 생성합니다. 각 연결에 대해 두 VPN 터널이 모두 작동 중인지 확인하세요. 경로 전파 기능을 켭니다.
더보기

Answer: A

Q723.회사에 Amazon EC2 인스턴스에서 실행되는 애플리케이션이 있습니다. EC2 인스턴스는 관련 정책이 있는 IAM 역할을 사용하여 Amazon RDS 데이터베이스에 연결합니다. 회사는 AWS Systems Manager를 사용하여 실행 중인 애플리케이션을 중단하지 않고 EC2 인스턴스를 패치하려고 합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까? ★★★
A. 새로운 IAM 역할을 생성합니다. AmazonSSMManagedInstanceCore 정책을 새 IAM 역할에 연결합니다. 새 IAM 역할을 EC2 인스턴스와 기존 IAM 역할에 연결합니다.
B. IAM 사용자를 생성합니다. AmazonSSMManagedInstanceCore 정책을 IAM 사용자에게 연결합니다. IAM 사용자를 사용하여 EC2 인스턴스를 관리하도록 Systems Manager를 구성합니다.
C. Systems Manager에서 기본 호스트 구성 관리를 활성화하여 EC2 인스턴스를 관리합니다.
D. 기존 IAM 역할에서 기존 정책을 제거합니다. 기존 IAM 역할에 AmazonSSMManagedInstanceCore 정책을 추가합니다.
더보기

Answer: C

회사 요구 사항에 가장 적합한 솔루션은 Systems Manager에서 기본 호스트 구성 관리를 활성화하여 EC2 인스턴스를 관리하는 것입니다. 이 솔루션을 사용하면 회사는 실행 중인 애플리케이션을 중단하지 않고 IAM 역할이나 사용자를 수동으로 생성하거나 수정하지 않고도 EC2 인스턴스를 패치할 수 있습니다.

Q724.한 회사는 Amazon Elastic Kubernetes Service(Amazon EKS)와 Kubernetes 수평형 포드 자동 크기 조정기를 사용하여 컨테이너 애플리케이션을 실행합니다. 작업량이 하루 종일 일정하지 않습니다. 솔루션 설계자는 기존 노드가 클러스터의 최대 용량에 도달해도 노드 수가 자동으로 확장되지 않아 성능 문제가 발생한다는 사실을 알아냈습니다.최소한의 관리 오버헤드로 이 문제를 해결할 수 있는 솔루션은 무엇입니까? ★★
A. 메모리 사용량을 추적하여 노드를 확장합니다.
B. Kubernetes Cluster Autoscaler를 사용하여 클러스터의 노드 수를 관리합니다.
C. AWS Lambda 함수를 사용하여 EKS 클러스터의 크기를 자동으로 조정합니다.
D. Amazon EC2 Auto Scaling 그룹을 사용하여 워크로드를 분산합니다.
더보기

Answer: B

쿠버네티스 클러스터 오토스케일러를 사용하는 것이 가장 좋은 솔루션인 것 같습니다

Q725.한 회사는 매달 약 300TB의 Amazon S3 Standard 스토리지를 유지 관리합니다. S3 객체의 크기는 일반적으로 약 50GB이며 글로벌 애플리케이션에 의해 멀티파트 업로드로 자주 교체됩니다. S3 객체의 수와 크기는 일정하게 유지되지만 회사의 S3 스토리지 비용은 매달 증가하고 있습니다.이 상황에서 솔루션 설계자는 어떻게 비용을 절감해야 합니까?
A. 멀티파트 업로드에서 Amazon S3 Transfer Acceleration으로 전환합니다.
B. 불완전한 멀티파트 업로드를 삭제하는 S3 수명 주기 정책을 활성화합니다.
C. 객체가 너무 빨리 보관되지 않도록 S3 인벤토리를 구성합니다.
D. Amazon S3에 저장되는 객체 수를 줄이도록 Amazon CloudFront를 구성합니다.
더보기

Answer: B

Q726.한 회사에서 모바일 장치용 멀티플레이어 게임을 배포했습니다. 이 게임에는 위도와 경도를 기반으로 플레이어의 실시간 위치 추적이 필요합니다. 게임의 데이터 저장소는 신속한 업데이트와 위치 검색을 지원해야 합니다.
이 게임은 읽기 전용 복제본이 있는 PostgreSQL DB 인스턴스용 Amazon RDS를 사용하여 위치 데이터를 저장합니다. 사용량이 가장 많은 기간에는 데이터베이스가 업데이트를 읽고 쓰는 데 필요한 성능을 유지할 수 없습니다. 게임의 사용자 기반이 빠르게 증가하고 있습니다.데이터 계층의 성능을 향상하려면 솔루션 설계자가 무엇을 해야 합니까?
A. 기존 DB 인스턴스의 스냅샷을 찍습니다. 다중 AZ가 활성화된 스냅샷을 복원합니다.
B. OpenSearch 대시보드를 사용하여 Amazon RDS에서 Amazon OpenSearch Service로 마이그레이션합니다.
C. 기존 DB 인스턴스 앞에 Amazon DynamoDB Accelerator(DAX)를 배포합니다. DAX를 사용하도록 게임을 수정합니다.
D. 기존 DB 인스턴스 앞에 Redis용 Amazon ElastiCache 클러스터를 배포합니다. Redis를 사용하도록 게임을 수정합니다.
더보기

Answer: D

Q727.회사는 회사 AWS 계정의 Amazon DynamoDB 테이블에 중요한 데이터를 저장합니다. IT 관리자가 실수로 DynamoDB 테이블을 삭제했습니다. 삭제로 인해 상당한 데이터 손실이 발생하고 회사 운영이 중단되었습니다. 회사는 앞으로 이러한 유형의 중단을 방지하기를 원합니다.최소한의 운영 오버헤드로 이 요구 사항을 충족하는 솔루션은 무엇입니까?
A. AWS CloudTrail에서 추적을 구성합니다. 삭제 작업에 대한 Amazon EventBridge 규칙을 생성합니다. 삭제된 DynamoDB 테이블을 자동으로 복원하는 AWS Lambda 함수를 생성합니다.
B. DynamoDB 테이블에 대한 백업 및 복원 계획을 생성합니다. DynamoDB 테이블을 수동으로 복구합니다.
C. DynamoDB 테이블에 대한 삭제 방지를 구성합니다.
D. DynamoDB 테이블에서 특정 시점 복구를 활성화합니다.
더보기

Answer: C

삭제 방지는 실수로 테이블이 삭제되는 것을 방지하는 DynamoDB의 기능입니다. 삭제 방지가 활성화되면 먼저 명시적으로 비활성화하지 않는 한 테이블을 삭제할 수 없습니다. 이를 통해 보안 계층이 추가되고 데이터 손실 및 운영 중단 위험이 줄어듭니다. 삭제 방지는 AWS Management Console, AWS CLI 또는 DynamoDB API를 사용하여 쉽게 활성화 및 비활성화할 수 있습니다. 이 솔루션은 추가 리소스나 서비스를 생성, 관리 또는 호출할 필요가 없으므로 운영 오버헤드가 가장 적습니다.

Q728.회사에 스토리지 용량이 부족한 온프레미스 데이터 센터가 있습니다. 회사는 대역폭 비용을 최소화하면서 스토리지 인프라를 AWS로 마이그레이션하려고 합니다. 솔루션은 추가 비용 없이 데이터를 즉시 검색할 수 있어야 합니다.
이러한 요구 사항을 어떻게 충족할 수 있습니까?★★★
A. Amazon S3 Glacier Vault를 배포하고 빠른 검색을 활성화합니다. 워크로드에 대해 프로비저닝된 검색 용량을 활성화합니다.
B. 캐시된 볼륨을 사용하여 AWS Storage Gateway를 배포합니다. Storage Gateway를 사용하면 자주 액세스하는 데이터 하위 집합의 복사본을 로컬에 보관하면서 Amazon S3에 데이터를 저장할 수 있습니다.
C. 저장된 볼륨을 사용하여 AWS Storage Gateway를 배포하여 데이터를 로컬에 저장합니다. Storage Gateway를 사용하여 데이터의 특정 시점 스냅샷을 Amazon S3에 비동기식으로 백업합니다.
D. AWS Direct Connect를 배포하여 온프레미스 데이터 센터에 연결합니다. 데이터를 로컬에 저장하도록 AWS Storage Gateway를 구성합니다. Storage Gateway를 사용하여데이터의 특정 시점 스냅샷을 Amazon S3에 비동기식으로 백업합니다.
더보기

Answer: B

B. 캐시된 볼륨을 사용하여 AWS 스토리지 게이트웨이를 배포합니다. 자주 액세스하는 데이터 하위 집합의 사본을 로컬에 보관하면서 스토리지 게이트웨이를 사용하여 Amazon S3에 데이터를 저장합니다.
AWS 스토리지 게이트웨이의 캐시된 볼륨을 사용하면 자주 액세스하는 데이터를 스토리지 게이트웨이에 로컬로 유지하면서 Amazon S3를 기본 데이터 저장소로 사용할 수 있습니다. 캐시된 볼륨을 사용하면 온프레미스 스토리지 인프라를 확장할 필요성을 최소화하는 동시에 자주 액세스하는 데이터에 대한 지연 시간을 줄일 수 있습니다. 게이트웨이와 AWS 스토리지 간에 전송되는 모든 데이터는 보안을 위해 암호화됩니다. 또한 AWS 스토리지 게이트웨이는 게이트웨이와 AWS 간에 전송되는 모든 데이터를 압축하여 데이터 전송 비용을 절감하면서도 AWS에 더 많은 데이터를 저장할 수 있으므로 데이터 전송 비용을 절약할 수 있습니다.

Q729.회사는 여러 가용 영역에 걸쳐 VPC에서 3계층 웹 애플리케이션을 실행합니다. Amazon EC2 인스턴스는 애플리케이션 계층에 대한 Auto Scaling 그룹에서 실행됩니다.회사는 각 리소스의 일일 및 주간 기록 워크로드 추세를 분석하는 자동화된 확장 계획을 수립해야 합니다. 구성은 활용도의 예측 및 실시간 변화에 따라 리소스를 적절하게 확장해야 합니다.
이러한 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 확장 전략을 권장해야 합니까?★★★
A. EC2 인스턴스의 평균 CPU 사용률을 기준으로 단계 조정을 통해 동적 조정을 구현합니다.
B. 예측 및 확장을 위해 예측 확장을 활성화합니다. 대상 추적을 사용하여 동적 조정 구성
C. 웹 애플리케이션의 트래픽 패턴을 기반으로 자동화된 예약 조정 작업을 생성합니다.
D. 간단한 확장 정책을 설정합니다. EC2 인스턴스 시작 시간을 기준으로 휴지 기간을 늘립니다.
더보기

Answer: B

예측확장!!!

이 솔루션을 사용하면 회사에서 예측적 조정과 동적 조정을 모두 사용하여 Auto Scaling 그룹의 용량을 최적화할 수 있으므로 요구 사항을 충족합니다. 예측 확장은 기계 학습을 사용하여 기록 데이터를 분석하고 향후 트래픽 패턴을 예측합니다. 그런 다음 예측된 변경 사항에 앞서 그룹의 원하는 용량을 조정합니다. 동적 조정은 목표 추적을 사용하여 지정된 지표(: CPU 사용률)를 목표 값으로 유지합니다. 메트릭을 대상에 가깝게 유지하기 위해 필요에 따라 그룹을 확장하거나 축소합니다.

두 가지 확장 방법을 모두 사용함으로써 회사는 예측된 활용도 변화와 실시간 활용도 변화에 모두 대응하는 더 빠르고 간단하며 정확한 확장의 이점을 누릴 수 있습니다.

Q730.패키지 배송 회사에는 Amazon EC2 인스턴스와 Amazon Aurora MySQL DB 클러스터를 사용하는 애플리케이션이 있습니다. 애플리케이션이 대중화되면서 EC2 인스턴스 사용량은 약간만 증가합니다. DB 클러스터 사용량이 훨씬 빠른 속도로 증가합니다.회사에서는 단기간 동안 DB 클러스터 사용량을 줄이는 읽기 전용 복제본을 추가합니다. 그러나 부하가 계속 증가합니다. DB 클러스터 사용량을 증가시키는 작업은 모두 전송 세부 사항과 관련된 반복 읽기 명령문입니다. 회사에서는 DB 클러스터에 대한 반복 읽기의 영향을 완화해야 합니다.이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?
A. 애플리케이션과 DB 클러스터 사이에 Redis용 Amazon ElastiCache 클러스터를 구현합니다.
B. DB 클러스터에 추가 읽기 전용 복제본을 추가합니다.
C. Aurora 읽기 전용 복제본을 위한 Aurora Auto Scaling을 구성합니다.
D. 여러 개의 라이터 인스턴스를 갖도록 DB 클러스터를 수정합니다.
더보기

Answer: A

Q731.한 회사에 Amazon DynamoDB 테이블을 저장용으로 사용하는 애플리케이션이 있습니다. 솔루션 설계자는 테이블에 대한 많은 요청이 최신 데이터를 반환하지 않는다는 것을 발견했습니다. 회사 사용자는 데이터베이스 성능과 관련된 다른 문제를 보고하지 않았습니다. 지연 시간이 허용 가능한 범위 내에 있습니다.솔루션 설계자는 어떤 디자인 변경을 권장해야 합니까?★★
A. 테이블에 읽기 전용 복제본을 추가합니다.
B. 글로벌 보조 인덱스(GSI)를 사용합니다
C. 테이블에 대해 강력하게 일관된 읽기를 요청합니다.
D. 테이블에 대한 최종적 일관된 읽기를 요청합니다.
더보기

Answer: C

회사의 애플리케이션에 가장 적합한 디자인 변경은 테이블에 대해 강력하고 일관된 읽기를 요청하는 것입니다. 이렇게 변경하면 테이블에 대한 요청이 모든 이전 쓰기 작업의 업데이트를 반영하여 최신 데이터를 반환하게 됩니다.

Amazon DynamoDB는 원활한 확장성과 함께 빠르고 예측 가능한 성능을 제공하는 완전 관리형 NoSQL 데이터베이스 서비스입니다. DynamoDB는 최종적 일관된 읽기와 강력한 일관된 읽기라는 두 가지 유형의 읽기 일관성을 지원합니다. 기본적으로 DynamoDB는 사용자가 달리 지정하지 않는 한 최종적 일관된 읽기를 사용합니다.

최종 일관성 읽기는 최근 완료된 쓰기 작업의 결과를 반영하지 않을 수 있는 읽기입니다. 모든 복제본에 데이터를 전파하는 데 지연이 발생하기 때문에 응답에 변경 사항이 포함되지 않을 수 있습니다. 사용자가 잠시 후에 읽기 요청을 반복하면 응답은 업데이트된 데이터를 반환해야 합니다. 최종 일관성 읽기는 최신 데이터가 필요하지 않거나 최종 일관성을 허용할 수 있는 애플리케이션에 적합합니다. Strongly Consistency 읽기는 읽기 전에 성공적인 응답을 받은 모든 쓰기를 반영하는 결과를 반환하는 읽기입니다. 사용자는 GetItem, Query 또는 Scan과 같은 읽기 작업에서 ConsistencyRead 매개 변수를 true로 설정하여 강력한 일관된 읽기를 요청할 수 있습니다. 강력한 일관된 읽기는 최신 데이터가 필요하거나 최종 일관성을 허용할 수 없는 애플리케이션에 적합합니다.

다른 옵션은 읽기 일관성 문제를 해결하지 않거나 사용 사례와 관련이 없기 때문에 올바르지 않습니다. 이 옵션은 DynamoDB에서 지원되지 않으므로 테이블에 읽기 전용 복제본을 추가하는 것은 올바르지 않습니다. 읽기 복제본은 읽기 전용 트래픽을 제공하고 가용성과 성능을 향상시킬 수 있는 기본 데이터베이스 인스턴스의 복사본입니다. 읽기 전용 복제본은 Amazon RDS 또는 Amazon Aurora와 같은 일부 관계형 데이터베이스 서비스에 사용할 수 있지만 DynamoDB2에는 사용할 수 없습니다. GSI(Global Secondary Index)를 사용하는 것은 올바르지 않습니다. 이 옵션은 읽기 일관성과 관련이 없기 때문입니다. GSI는 기본 테이블의 것과 다른 파티션 키와 선택적 정렬 키가 있는 인덱스입니다. GSI를 사용하면 사용자는 최종 일관성을 유지하면서 다양한 방식으로 데이터를 쿼리할 수 있습니다. 테이블에 대한 최종적 일관된 읽기 요청은 올바르지 않습니다. 이 옵션은 이미 DynamoDB의 기본 동작이고 최신 데이터를 반환하지 않는 요청 문제를 해결하지 못하기 때문입니다.

Q732.한 회사가 Amazon RDS 데이터베이스를 사용하여 Amazon EC2 인스턴스에 애플리케이션을 배포했습니다. 회사는 최소 권한 원칙을 사용하여 데이터베이스 액세스 자격 증명을 구성했습니다. 회사의 보안 팀은 SQL 주입 및 기타 웹 기반 공격으로부터 애플리케이션과 데이터베이스를 보호하려고 합니다.최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. 보안 그룹과 네트워크 ACL을 사용하여 데이터베이스와 애플리케이션 서버를 보호하십시오.
B. AWS WAF를 사용하여 애플리케이션을 보호하십시오. RDS 매개변수 그룹을 사용하여 보안 설정을 구성합니다.
C. AWS 네트워크 방화벽을 사용하여 애플리케이션과 데이터베이스를 보호하십시오.
D. 다양한 기능을 위해 애플리케이션 코드에서 다양한 데이터베이스 계정을 사용합니다. 데이터베이스 사용자에게 과도한 권한을 부여하지 마십시오.
더보기

Answer: B

AWS WAF는 애플리케이션 가용성에 영향을 미치거나 보안을 손상시키거나 과도한 리소스를 소비할 수 있는 일반적인 웹 공격으로부터 웹 애플리케이션을 보호하는 데 도움이 되는 웹 애플리케이션 방화벽입니다. AWS WAF를 통해 사용자는 사용자 정의 가능한 웹 보안 규칙을 기반으로 웹 요청을 차단, 허용 또는 계산하는 규칙을 생성할 수 있습니다. 생성할 수 있는 규칙 유형 중 하나는 사용자가 허용하거나 차단할 IP 주소 또는 IP 주소 범위 목록을 지정할 수 있는 SQL 삽입 규칙입니다. AWS WAF를 사용하여 애플리케이션을 보호함으로써 회사는 SQL 주입 및 기타 웹 기반 공격이 애플리케이션과 데이터베이스에 도달하는 것을 방지할 수 있습니다.

Q733.전자 상거래 회사는 AWS Organizations의 조직에 속한 AWS 계정에서 애플리케이션을 실행합니다. 애플리케이션은 모든 계정의 Amazon Aurora PostgreSQL 데이터베이스에서 실행됩니다. 회사는 악의적인 활동을 방지해야 하며 데이터베이스에 대한 비정상적으로 실패하거나 불완전한 로그인 시도를 식별해야 합니다.어떤 솔루션이 운영상 가장 효율적인 방식으로 이러한 요구 사항을 충족합니까? ★★★
A. 서비스 제어 정책(SCP)을 조직의 루트에 연결하여 실패한 로그인 시도를 식별합니다.
B. 조직의 회원 계정에 대해 Amazon GuardDuty에서 Amazon RDS 보호 기능을 활성화합니다.
C. Amazon CloudWatch Logs의 로그 그룹에 Aurora 일반 로그를 게시합니다. 로그 데이터를 중앙 Amazon S3 버킷으로 내보냅니다.
D. AWS CloudTrail의 모든 Aurora PostgreSQL 데이터베이스 이벤트를 중앙 Amazon S3 버킷에 게시합니다.
더보기

Answer: B

A -> SCP는 모니터링 또는 기록용이 아닙니다

B-> 정답
RDS 보호 기능을 활성화하면 GuardDuty는 계정의 오로라 데이터베이스에서 RDS 로그인 활동 모니터링을 즉시 시작합니다. GuardDuty는 이전에 볼 수 없었던 외부 행위자가 계정의 오로라 데이터베이스에 무단으로 액세스하는 등 의심스러운 활동이 있는지 RDS 로그인 활동을 지속적으로 모니터링하고 프로파일링합니다.

Q734.회사에는 회사 데이터 센터에서 us-east-1 지역의 VPC까지 AWS Direct Connect 연결이 있습니다. 이 회사는 최근 온프레미스 데이터 센터와 eu-west-2 지역 간에 여러 개의 VPC와 Direct Connect 연결을 갖춘 회사를 인수했습니다. 회사와 회사의 VPC에 대한 CIDR 블록은 중복되지 않습니다. 회사에서는 두 지역과 데이터 센터 간의 연결이 필요합니다. 회사에는 운영 오버헤드를 줄이면서 확장 가능한 솔루션이 필요합니다.솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?★★★
A. us-east-1의 VPC와 eu-west-2의 VPC 간에 리전 간 VPC 피어링을 설정합니다.
B.us-east-1의 Direct Connect 연결에서 eu-west-2의 VPC로 프라이빗 가상 인터페이스를 생성합니다.
C. Amazon EC2에서 호스팅하는 완전히 메시된 VPN 네트워크에 VPN 어플라이언스를 설정합니다. AWS VPN CloudHub를 사용하여 데이터 센터와 각 VPC 간에 데이터를 보내고 받습니다.
D. 기존 Direct Connect 연결을 Direct Connect 게이트웨이에 연결합니다. 각 리전에 있는 VPC의 가상 프라이빗 게이트웨이에서 Direct Connect 게이트웨이로 트래픽을 라우팅합니다.
더보기

Answer: D

두개 리전모두   Direct Connect  가연결되어 있으니 , Direct Connect 게이트웨이에 연결이 답이다!

이 솔루션은 회사가 단일 Direct Connect 연결을 사용하여 Direct Connect 게이트웨이를 통해 다양한 지역의 여러 VPC에 연결할 수 있도록 허용하므로 요구 사항을 충족합니다. Direct Connect 게이트웨이는 온프레미스 네트워크를 AWS 중국 리전을 제외한 모든 AWS 리전의 VPC에 연결할 수 있게 해주는 전 세계적으로 사용 가능한 리소스입니다. Direct Connect 게이트웨이를 각 리전의 전송 게이트웨이 또는 가상 프라이빗 게이트웨이와 연결할 수 있습니다. VPC의 가상 프라이빗 게이트웨이에서 Direct Connect 게이트웨이로 트래픽을 라우팅하면 VPC에 대한 리전 간 및 온프레미스 연결을 활성화할 수 있습니다. 이 솔루션은 추가 연결을 생성하지 않고도 Direct Connect 게이트웨이에 다양한 리전의 더 많은 VPC를 추가할 수 있기 때문에 확장 가능합니다. 또한 이 솔루션은 여러 VPN 어플라이언스, VPN 연결 또는 VPC 피어링 연결을 관리할 필요가 없기 때문에 운영 오버헤드를 줄여줍니다.

Q735.한 회사에서 점수 업데이트를 백엔드 프로세서로 스트리밍한 다음 결과를 리더보드에 게시하는 모바일 게임을 개발하고 있습니다. 솔루션 설계자는 대규모 트래픽 급증을 처리하고, 모바일 게임 업데이트를 수신 순서대로 처리하고, 처리된 업데이트를 고가용성 데이터베이스에 저장할 수 있는 솔루션을 설계해야 합니다. 또한 회사는 솔루션을 유지하는 데 필요한 관리 오버헤드를 최소화하려고 합니다.솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까? ★★★
A. Amazon Kinesis Data Streams에 점수 업데이트를 푸시합니다. AWS Lambda를 사용하여 Kinesis Data Streams의 업데이트를 처리합니다. 처리된 업데이트를 Amazon DynamoDB에 저장합니다.
B. Amazon Kinesis Data Streams에 점수 업데이트를 푸시합니다. Auto Scaling용으로 설정된 Amazon EC2 인스턴스 집합으로 업데이트를 처리합니다. 처리된 업데이트를 Amazon Redshift에 저장합니다.
C. Amazon Simple 알림 서비스(Amazon SNS) 주제에 점수 업데이트를 푸시합니다. 업데이트를 처리하려면 SNS 주제에 대한 AWS Lambda 함수를 구독하세요. Amazon EC2에서 실행되는 SQL 데이터베이스에 처리된 업데이트를 저장합니다.
D. Amazon Simple Queue Service(Amazon SQS)대기열에 점수 업데이트를 푸시합니다. Auto Scaling이 포함된 Amazon EC2 인스턴스 집합을 사용하여 SQS 대기열의 업데이트를 처리합니다. 처리된 업데이트를 Amazon RDS 다중 AZ DB 인스턴스에 저장합니다
더보기

Answer: A 

Amazon Kinesis Data Streams도 순서지정가능

Amazon Kinesis Data Streams는 스트리밍 데이터를 실시간으로 수집, 버퍼링 및 처리할 수 있는 확장 가능하고 안정적인 서비스입니다. 대규모 트래픽 급증을 처리하고 들어오는 데이터 레코드의 순서를 보존할 수 있습니다. AWS Lambda는 인프라 관리 없이 Kinesis Data Streams의 데이터 스트림을 처리할 수 있는 서버리스 컴퓨팅 서비스입니다. 또한 데이터 스트림의 처리량에 맞게 자동으로 확장할 수도 있습니다.

Amazon DynamoDB Lambda에서 처리된 업데이트를 저장할 수 있는 완전 관리형, 고가용성, 빠른 NoSQL 데이터베이스입니다. 또한 높은 쓰기 처리량을 처리하고 일관된 성능을 제공할 수 있습니다.

솔루션 아키텍트는 이러한 서비스를 사용하여 최소한의 운영 오버헤드로 회사의 요구 사항을 충족하는 솔루션을 설계할 수 있습니다.

Q736.회사에는 us-west-2 지역에 애플리케이션이 배포된 여러 AWS 계정이 있습니다. 애플리케이션 로그는 각 계정의 Amazon S3 버킷 내에 저장됩니다. 회사는 단일 S3 버킷을 사용하는 중앙 집중식 로그 분석 솔루션을 구축하려고 합니다. 로그는 us-west-2를 벗어나면 안 되며, 회사는 최소한의 운영 오버헤드를 원합니다.
이러한 요구 사항을 충족하고 가장 비용 효율적인 솔루션은 무엇입니까?
A. 애플리케이션 S3 버킷 중 하나에서 중앙 집중식 S3 버킷으로 객체를 복사하는 S3 수명 주기 정책을 생성합니다.
B. S3 동일 리전 복제를 사용하여 S3 버킷의 로그를 us-west-2의 다른 S3 버킷으로 복제합니다. 로그 분석을 위해 이 S3 버킷을 사용하세요.
C. 매일 PutObject API 작업을 사용하여 버킷의 전체 콘텐츠를 us-west-2의 다른 S3 버킷에 복사하는 스크립트를 작성합니다. 로그 분석을 위해 이 S3 버킷을 사용하세요.
D. 로그가 S3 버킷(s3:ObjectCreated:* 이벤트)으로 전달될 때마다 트리거되는 AWS Lambda 함수를 이러한 계정에 작성합니다. us-west-2의 다른 S3 버킷에 로그를 복사합니다. 로그 분석을 위해 이 S3 버킷을 사용하세요.
더보기

Answer: B

이 솔루션은 다음 요구 사항을 충족합니다.

복제된 객체의 저장 및 데이터 전송에 대해서만 비용을 청구하고 추가 AWS 서비스나 사용자 지정 스크립트가 필요하지 않으므로 비용 효율적입니다. S3 동일 리전 복제(SRR)는 동일한 AWS 리전 내의 S3 버킷에 객체를 자동으로 복제하는 기능입니다. SRR을 사용하면 분석 및 감사를 위해 여러 소스의 로그를 단일 대상으로 집계할 수 있습니다. SRR은 또한 소스 객체의 메타데이터, 암호화 및 액세스 제어를 보존합니다.

수동 개입이나 예약이 필요하지 않으므로 운영상 효율적입니다. SRR은 객체가 원본 버킷에 업로드되는 즉시 복제하여 대상 버킷에 항상 최신 로그 데이터가 있는지 확인합니다. SRR은 또한 소스 객체의 업데이트나 삭제를 처리하여 대상 버킷을 동기화 상태로 유지합니다. S3 콘솔에서 몇 번의 클릭이나 간단한 API 호출을 통해 SRR을 활성화할 수 있습니다.

로그가 us-west-2 리전을 벗어나는 것을 허용하지 않으므로 안전합니다. SRR은 동일한 AWS 리전 내의 객체만 복제하므로 데이터 주권 및 규정 준수 요구 사항이 충족됩니다.

SRR은 또한 AWS KMS 또는 S3 관리형 키를 사용한 서버 측 암호화 또는 클라이언트 측 암호화를 사용하여 소스 및 대상 객체의 암호화를 지원합니다.

Q737.한 회사에 전 세계 학생들에게 주문형 교육 비디오를 제공하는 애플리케이션이 있습니다. 또한 이 애플리케이션을 사용하면 승인된 콘텐츠 개발자가 비디오를 업로드할 수 있습니다. 데이터는 us-east-2 리전의 Amazon S3 버킷에 저장됩니다.회사는 eu-west-2 리전에 S3 버킷을, ap-southeast-1 리전에 S3 버킷을 생성했습니다. 회사는 데이터를 새로운 S3 버킷에 복제하려고 합니다. 회사는 eu-west-2 및 ap-southeast-1 근처에서 비디오를 업로드하는 개발자와 비디오를 스트리밍하는 학생의 대기 시간을 최소화해야 합니다.애플리케이션을 가장 적게 변경하여 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (2개 선택) ★★★
A. us-east-2 S3 버킷에서 eu-west-2 S3 버킷으로 단방향 복제를 구성합니다. us-east-2 S3 버킷에서 ap-southeast-1 S3 버킷으로의 단방향 복제를 구성합니다.
B. us-east-2 S3 버킷에서 eu-west-2 S3 버킷으로 단방향 복제를 구성합니다. eu-west-2 S3 버킷에서 ap-southeast-1 S3 버킷으로의 단방향 복제를 구성합니다.
C. 세 지역 모두에 있는 S3 버킷 간에 양방향(양방향) 복제를 구성합니다.
D. S3 다중 지역 액세스 포인트를 생성합니다. 비디오 스트리밍을 위해 다중 지역 액세스 포인트의 Amazon 리소스 이름(ARN)을 사용하도록 애플리케이션을 수정합니다. 비디오 업로드용 애플리케이션을 수정하지 마십시오.
E. S3 다중 지역 액세스 포인트를 생성합니다. 비디오 스트리밍 및 업로드를 위해 다중 지역 액세스 포인트의 Amazon 리소스 이름(ARN)을 사용하도록 애플리케이션을 수정합니다.
더보기

Answer: C, E

세 지역 모두에서 복제를 동기화하기 위해 양방향을 사용합니다.
비디오 스트리밍 및 업로드를 위한 다중 영역 액세스 포인트 -> 가장 가까운 저지연 영역으로 업로드하고 양방향 복제를 통해 다른 두 영역을 동기화하여 업로드 및 스트리밍 지연 시간을 줄입니다

Q738.회사에 새로운 모바일 앱이 있습니다. 세계 어디에서나 사용자는 자신이 선택한 주제에 대한 지역 뉴스를 볼 수 있습니다. 사용자는 앱 내부에서 사진과 비디오를 게시할 수도 있습니다.사용자는 콘텐츠가 게시된 후 처음 몇 분 안에 콘텐츠에 액세스하는 경우가 많습니다. 새로운 콘텐츠가 이전 콘텐츠를 빠르게 대체한 다음 이전 콘텐츠는 사라집니다. 뉴스의 지역적 특성은 사용자가 뉴스가 업로드되는 AWS 지역 내에서 콘텐츠의 90%를 소비한다는 것을 의미합니다.
콘텐츠 업로드에 가장 짧은 지연 시간을 제공하여 사용자 경험을 최적화하는 솔루션은 무엇입니까?
A. Amazon S3에 콘텐츠를 업로드하고 저장합니다. 업로드에는 Amazon CloudFront를 사용하십시오.
B. Amazon S3에 콘텐츠를 업로드하고 저장합니다. 업로드에는 S3 Transfer Acceleration을 사용하세요.
C. 사용자에게 가장 가까운 지역의 Amazon EC2 인스턴스에 콘텐츠를 업로드합니다. 데이터를 Amazon S3에 복사합니다.
D. 사용자에게 가장 가까운 지역의 Amazon S3에 콘텐츠를 업로드하고 저장합니다. Amazon CloudFront의 여러 배포판을 사용하십시오.
더보기

Answer: B

콘텐츠 업로드에 대한 지연 시간을 최소화하여 사용자 경험을 최적화하는 가장 적합한 솔루션은 Amazon S3에 콘텐츠를 업로드 및 저장하고 업로드에 S3 Transfer Acceleration을 사용하는 것입니다. 이 솔루션을 통해 회사는 AWS 글로벌 네트워크와 엣지 로케이션을 활용하여 사용자와 S3 버킷 간의 데이터 전송 속도를 높일 수 있습니다.

Amazon S3는 모든 유형의 데이터에 대해 확장 가능하고 내구성이 뛰어나며 가용성이 높은 객체 스토리지를 제공하는 스토리지 서비스입니다. Amazon S3를 사용하면 사용자는 웹 어디에서나 데이터를 저장하고 검색할 수 있으며 암호화, 버전 관리, 수명 주기 관리 및 복제와 같은 다양한 기능을 제공합니다.

Q739.한 회사가 서버리스 아키텍처를 사용하는 새로운 애플리케이션을 구축하고 있습니다. 아키텍처는 수신 요청을 관리하기 위한 Amazon API Gateway REST API와 AWS Lambda 함수로 구성됩니다.회사는 처리를 위해 API Gateway REST API에서 받은 메시지를 여러 대상 Lambda 함수로 보낼 수 있는 서비스를 추가하려고 합니다. 서비스는 대상 Lambda 함수에 필요한 메시지만 수신할 수 있는 기능을 제공하는 메시지 필터링을 제공해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★★★
A. API Gateway REST API의 요청을 Amazon Simple Notification Service(Amazon SNS) 주제로 보냅니다. Amazon Simple Queue Service(Amazon SQS) 대기열을 SNS 주제에 등록합니다. 다양한 SQS 대기열을 폴링하도록 대상 Lambda 함수를 구성합니다.
B. API Gateway REST API의 요청을 Amazon EventBridge로 보냅니다. 대상 Lambda 함수를 호출하도록 EventBridge를 구성합니다.
C. API Gateway REST API의 요청을 Apache Kafka용 Amazon Managed Streaming(Amazon MSK)으로 보냅니다. 대상 Lambda 함수에 메시지를 게시하도록 Amazon MSK를 구성합니다.
D. API Gateway REST API의 요청을 여러 Amazon Simple Queue Service(Amazon SQS) 대기열로 보냅니다. 다양한 SQS 대기열을 폴링하도록 대상 Lambda 함수를 구성합니다
더보기

Answer: B

Eventbridge + lambda is two services, sns + sqs + lambda is 3. Both can filter, but the config involved in eventbridge > lambda is easier

Q740.한 회사는 수백만 개의 보관 파일을 Amazon S3로 마이그레이션했습니다. 솔루션 설계자는 고객이 제공한 키를 사용하여 모든 보관 데이터를 암호화하는 솔루션을 구현해야 합니다. 솔루션은 암호화되지 않은 기존 개체와 향후 개체를 암호화해야 합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. Amazon S3 인벤토리 보고서를 필터링하여 암호화되지 않은 객체 목록을 생성합니다. 고객 제공 키(SSE-C)를 사용한 서버 측 암호화를 통해 목록의 객체를 암호화하도록 S3 배치 작업 작업을 구성합니다. 고객 제공 키(SSE-C)로 서버 측 암호화를 사용하도록 S3 기본 암호화 기능을 구성합니다.
B. S3 Storage Lens 지표를 사용하여 암호화되지 않은 S3 버킷을 식별합니다. AWS KMS 키(SSE-KMS)로 서버 측 암호화를 사용하도록 S3 기본 암호화 기능을 구성합니다.
C. Amazon S3에 대한 AWS 사용 보고서를 필터링하여 암호화되지 않은 객체 목록을 생성합니다. AWS KMS 키(SSE-KMS)를 사용한 서버 측 암호화를 통해 목록의 객체를 암호화하도록 AWS Batch 작업을 구성합니다. AWS KMS 키(SSE-KMS)로 서버 측 암호화를 사용하도록 S3 기본 암호화 기능을 구성합니다.
D. Amazon S3에 대한 AWS 사용 보고서를 필터링하여 암호화되지 않은 객체 목록을 생성합니다. 고객 제공 키(SSE-C)로 서버 측 암호화를 사용하도록 S3 기본 암호화 기능을 구성합니다.
더보기

Answer: A

S3암호화 = 인벤토리