Q1.회사는 여러 대륙에 걸쳐 도시의 온도, 습도 및 대기압에 대한 데이터를 수집합니다. 회사가 매일 각 사이트에서 수집하는 데이터의 평균 볼륨은 500GB입니다. 각 사이트에는 고속 인터넷 연결이 있습니다.
이 회사는 이러한 모든 글로벌 사이트의 데이터를 단일 Amazon S3 버킷에 최대한 빨리 집계하려고 합니다. 솔루션은 운영 복잡성을 최소화해야 합니다. 어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. 대상 S3 버킷에서 S3 Transfer Acceleration을 켭니다. 멀티파트 업로드를 사용하여 사이트 데이터를 대상 S3 버킷에 직접 업로드합니다.
B. 각 사이트의 데이터를 가장 가까운 리전의 S3 버킷에 업로드합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다. 그런 다음 원본 S3 버킷에서 데이터를 제거합니다.
C. AWS Snowball Edge Storage Optimized 디바이스 작업을 매일 예약하여 각 사이트에서 가장 가까운 리전으로 데이터를 전송합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다.
D. 각 사이트의 데이터를 가장 가까운 리전의 Amazon EC2 인스턴스로 업로드합니다. Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 저장합니다. 정기적으로 EBS 스냅샷을 만들어 대상 S3 버킷이 포함된 리전에 복사합니다. 해당 리전에서 EBS 볼륨을 복원합니다.
Answer: A
S3 : https://itat-yoon.tistory.com/47
Amazon S3 는 어디서나 원하는 양의 데이터를 저장하고 검색할 수 있도록 구축된 객체(OBJECT)스토리지
내구성, 가용성 ,성능,보안 및 거의 무제한의 확장성을 아주 저렴한 요금으로 제공하는 단순한 스토리지 서비스입니다.여러 글로벌 사이트의 데이터를 단일 Amazon S3 버킷에 최대한 빨리 집계하는 동시에 운영 복잡성을 최소화하려면 가장 적합한 솔루션은 옵션 A: 대상 S3 버킷에서 S3 전송 가속화를 설정하고 멀티파트 업로드를 사용하여 사이트 데이터를 대상 S3 버킷에 직접 업로드하는 것입니다.
요약하면 옵션 A는 여러 글로벌 사이트의 데이터를 단일 Amazon S3 버킷으로 신속하게 집계하는 가장 효율적이고 운영상 간단한 솔루션을 제공합니다. S3 Transfer Acceleration 및 멀티파트 업로드를 활용하여 회사는 복잡성을 최소화하면서 빠른 데이터 수집을 달성할 수 있습니다.
※오답노트: 인터넷 가능환경에서는 AWS Snowball Edge Storage Optimized 불필요
Q2.회사는 독점 애플리케이션의 로그 파일을 분석할 수 있는 능력이 필요합니다. 로그는 Amazon S3 버킷에 JSON 형식으로 저장됩니다. 쿼리는 간단하고 주문형으로 실행됩니다. 솔루션 설계자는 기존 아키텍처에 대한 최소한의 변경으로 분석을 수행해야 합니다.솔루션 설계자는 최소한의 운영 오버헤드로 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까? ★
A. Amazon Redshift를 사용하여 모든 콘텐츠를 한 곳에 로드하고 필요에 따라 SQL 쿼리를 실행합니다.
B. Amazon CloudWatch Logs를 사용하여 로그를 저장합니다. Amazon CloudWatch 콘솔에서 필요에 따라 SQL 쿼리를 실행합니다.
C. Amazon S3와 함께 Amazon Athena를 직접 사용하여 필요에 따라 쿼리를 실행합니다.
D. AWS Glue를 사용하여 로그를 분류합니다. Amazon EMR에서 임시 Apache Spark 클러스터를 사용하여 필요에 따라 SQL 쿼리를 실행합니다.
Answer: C
Amazon Redshift | AWS에서 제공하는 분산 병렬 RDB ( PostgreSQL과 호환성을 가지고 있음) ,빅데이터 상호작용 쿼리 실행에 효과적 |
Amazon CloudWatch Logs | Amazon CloudWatch는 Amazon Web Services(AWS) 리소스 및 AWS에서 실행되는 애플리케이션을 실시간으로 모니터링합니다 |
Amazon Athena | 표준 SQL을 사용해 Amazon S3에 저장된 데이터를 간편하게 분석할 수 있는 대화식 쿼리 서비스입니다. Athena는 서버리스 서비스이므로 구성하거나 관리할 인프라가 없으며 실행한 쿼리에 대해서만 비용을 지불하면 됩니다. 시작하려면, S3에 저장된 데이터를 가리키고 스키마를 정의한 후 표준 SQL을 사용하여 쿼리를 시작하면 됩니다. 다. 예를 들면 CSV, JSON 또는 컬럼 방식 데이터 형식 |
AWS Glue | 분석, 기계 학습(ML) 및 애플리케이션 개발을 위해 여러 소스에서 데이터를 쉽게 탐색, 준비, 이동 및 통합할 수 있도록 하는 확장 가능한 서버리스 데이터 통합 서비스입니다. |
Q3.회사는 AWS Organizations를 사용하여 여러 부서의 여러 AWS 계정을 관리합니다. 관리 계정에는 프로젝트 보고서가 포함된 Amazon S3 버킷이 있습니다. 회사는 이 S3 버킷에 대한 액세스를 AWS Organizations의 조직 내 계정 사용자로만 제한하려고 합니다.최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
★
A. 조직 ID에 대한 참조와 함께 aws PrincipalOrgID 전역 조건 키를 S3 버킷 정책에 추가합니다.
B. 각 부서에 대한 조직 단위(OU)를 만듭니다. aws:PrincipalOrgPaths 전역 조건 키를 S3 버킷 정책에 추가합니다.
C. AWS CloudTrail을 사용하여 CreateAccount, InviteAccountToOrganization, LeaveOrganization 및 RemoveAccountFromOrganization 이벤트를 모니터링합니다. 그에 따라 S3 버킷 정책을 업데이트합니다.
D. S3 버킷에 액세스해야 하는 각 사용자에 태그를 지정합니다. aws:PrincipalTag 전역 조건 키를 S3 버킷 정책에 추가합니다.
Answer: A
A(O) : aws:PrincipalOrgID라는 새로운 조건 키를 권한 정책에 사용하여 조직 내의 계정에 해당하는 IAM 보안 주체(사용자 및 역할)만 리소스에 액세스할 수 있도록 합니다.
https://aws.amazon.com/ko/about-aws/whats-new/2018/05/principal-org-id/
B(X) : aws:PrincipalOrgPaths는 다중 값 조건 키입니다. 다중 값 키에는 하나 이상의 값이 목록 형식으로 포함됩니다. 결과는 논리적 OR입니다.
C(X) : CloudTrail은 리소스 내역을 기록/전송하는 서비스로 지문에서 요구하는 사항에 불필요.
D(X) : 각 사용자마다 태그를 달아야 하므로 최소 운영 오버헤드라는 조건 불충족.
aws:PrincipalTag/tag-key : 문자열 연산자를 사용합니다. 이 키를 사용하여 요청한 보안 주체에 연결된 태그를 정책에서 지정한 태그와 비교합니다.
**AWS 전역조건 키
aws:PrincipalOrgID | 이 키를 사용하여 요청한 보안 주체가 속한 AWS Organizations의 조직 식별자와 정책에 지정된 식별자를 비교합니다. |
aws:PrincipalOrgPaths | 이 키를 사용하여 요청 중인 보안 주체의 AWS Organizations 경로를 정책의 경로와 비교합니다 |
aws:PrincipalTag/tag-key | 이 키를 사용하여 요청한 보안 주체에 연결된 태그를 정책에서 지정한 태그와 비교합니다. |
Q4.애플리케이션은 VPC의 Amazon EC2 인스턴스에서 실행됩니다. 애플리케이션은 Amazon S3 버킷에 저장된 로그를 처리합니다. EC2 인스턴스는 인터넷 연결 없이 S3 버킷에 액세스해야 합니다. ★
Amazon S3에 대한 프라이빗 네트워크 연결을 제공하는 솔루션은 무엇입니까?
A. S3 버킷에 대한 게이트웨이 VPC 엔드포인트를 생성합니다.
B. Amazon CloudWatch Logs로 로그를 스트리밍합니다. 로그를 S3 버킷으로 내보냅니다.
C. Amazon EC2에 인스턴스 프로파일을 생성하여 S3 액세스를 허용합니다.
D. S3 엔드포인트에 액세스하기 위한 프라이빗 링크가 있는 Amazon API Gateway API를 생성합니다.
Answer : A:
VPC-S3 간 인터넷을 통하지 않는 연결 = S3 VPC Gateway Endpoint. 정답은 A.
VPC endpoint을 사용하면 공용 인터넷을 사용하는 대신 사설 네트워크를 사용하여 AWS 서비스에 연결할 수 있습니다.
Q5.회사는 사용자 업로드 문서를 Amazon EBS 볼륨에 저장하는 단일 Amazon EC2 인스턴스를 사용하여 AWS에서 웹 애플리케이션을 호스팅하고 있습니다. 더 나은 확장성과 가용성을 위해 이 회사는 아키텍처를 복제하고 다른 가용 영역에 두 번째 EC2 인스턴스와 EBS 볼륨을 생성하여 Application Load Balancer 뒤에 배치했습니다. 이 변경을 완료한 후 사용자는 웹 사이트를 새로 고칠 때마다 문서의 일부 또는 다른 하위 집합을 볼 수 있지만 모든 문서를 동시에 볼 수는 없다고 보고했습니다.솔루션 설계자는 사용자가 모든 문서를 한 번에 볼 수 있도록 무엇을 제안해야 합니까? ★
A. 두 EBS 볼륨에 모든 문서가 포함되도록 데이터를 복사합니다.
B. 문서가 있는 서버로 사용자를 안내하도록 Application Load Balancer를 구성합니다.
C. 두 EBS 볼륨의 데이터를 Amazon EFS로 복사합니다. 새 문서를 Amazon EFS에 저장하도록 애플리케이션을 수정합니다.
D.두 서버 모두에 요청을 보내도록 Application Load Balancer를 구성합니다. 올바른 서버에서 각 문서를 반환합니다.
Answer: C
EBS 는 단일 AZ안에서만 접근이 가능한 저장소
EFS 는 다중 AZ안에서도 접근이 가능한 저장소
위 문제에서는 초기 단일 AZ에서 운영하던 EC2 및 EBS를 복제한뒤 AZ를 2중화하여 멀티 EC2 및 EBS 시스템으로 구성하였지만, 각 AZ 내에서 공유되지 않는 EBS 저장소를 별도로 운영하였기때문에 고객들에게 일관성있는 데이터를 제공할 수 없었던 것으로 보입니다. 이는 각 AZ의 EC2 인스턴스가 동일한 저장소를 공유하도록 함으로써 해결할 수 있을 것 같습니다. 초기 EBS에 저장되어있던 데이터들을 일관성있게 보정하여 EFS로 일회성 마이그레이션을 수행한뒤 EC2 어플리케이션 서버 인스턴스가 EBS가 아닌 EFS에 데이터를 저장하도록 변경하는 것이 바람직해보입니다
Q6.회사는 NFS를 사용하여 온프레미스 네트워크 연결 스토리지에 대용량 비디오 파일을 저장합니다. 각 비디오 파일의 크기 범위는 1MB에서 500GB입니다. 총 스토리지는 70TB이며 더 이상 증가하지 않습니다. 회사는 비디오 파일을 Amazon S3로 마이그레이션하기로 결정합니다. 회사는 가능한 한 최소한의 네트워크 대역폭을 사용하면서 가능한 한 빨리 비디오 파일을 마이그레이션해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까? ★
A. S3 버킷을 생성합니다. S3 버킷에 대한 쓰기 권한이 있는 IAM 역할을 생성합니다. AWS CLI를 사용하여 모든 파일을 S3 버킷에 로컬로 복사합니다.
B. AWS Snowball Edge 작업을 생성합니다. 온프레미스에서 Snowball Edge 장치를 받습니다. Snowball Edge 클라이언트를 사용하여 장치로 데이터를 전송합니다. AWS가 데이터를 Amazon S3로 가져올 수 있도록 디바이스를 반환합니다.
C. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결할 퍼블릭 서비스 엔드포인트를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에서 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유에서 S3 파일 게이트웨이로 데이터를 전송합니다.
D. 온프레미스 네트워크와 AWS 간에 AWS Direct Connect 연결을 설정합니다. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결할 공용 VIF(가상 인터페이스)를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에서 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유에서 S3 파일 게이트웨이로 데이터를 전송합니다.
Answer: B
가능한 한 최소한의 네트워크 대역폭을 사용하라 했으니 아예 오프라인에서 Snowball Edge로 올리는 게 맞음
AWS Snowball 및 AWS Snowball Edge는 기존 저장소에서 네트워크 대역폭이 충분하지 않을 때, 대용량 데이터 세트를 클라우드로 이전하는데 도움이 됩니다.
Snowball 장치는 80TB, Snowball Edge는 100TB까지 한번에 이동 가능합니다.
Snowmobiile 전송용트럭으로 엑사바이트 규모의 데이터 전송
Q7.회사에 들어오는 메시지를 수집하는 응용 프로그램이 있습니다. 그러면 수십 개의 다른 애플리케이션과 마이크로서비스가 이러한 메시지를 빠르게 소비합니다. 메시지 수는 급격하게 변하며 때로는 초당 100,000개로 갑자기 증가하기도 합니다. 이 회사는 솔루션을 분리하고 확장성을 높이고자 합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. Amazon Kinesis Data Analytics에 대한 메시지를 유지합니다. 메시지를 읽고 처리하도록 소비자 애플리케이션을 구성합니다.
B. Auto Scaling 그룹의 Amazon EC2 인스턴스에 수집 애플리케이션을 배포하여 CPU 지표를 기반으로 EC2 인스턴스 수를 확장합니다.
C. 단일 샤드를 사용하여 Amazon Kinesis Data Streams에 메시지를 씁니다. AWS Lambda 함수를 사용하여 메시지를 사전 처리하고 Amazon DynamoDB에 저장합니다. 메시지를 처리하기 위해 DynamoDB에서 읽도록 소비자 애플리케이션을 구성합니다.
D.여러Amazon Simple Queue Service(Amazon SOS)구독이있는Amazon Simple Notification Service(Amazon SNS)주제에 메시지를 게시합니다 대기열의메시지를처리하도록소비자애플리케이션을구성합니다
Answer: D
Amazon SQS : 메시지 대기열서비스
메시지 손실이나 다른 서비스 사용 없이 소프트웨어 구성 요소간에 메시지를 전송,저장 수신 할 수 있음
들어오는 요청을 Amazon SQS로 라우팅함으로써 회사는 처리 인스턴스에서 작업 요청을 분리할 수 있습니다. 이를 통해 대기열 크기에 따라 인스턴스 수를 확장하여 필요할 때 더 많은 리소스를 제공할 수 있습니다. 또한 대기열 크기를 기반으로 하는 Auto Scaling 그룹을 사용하면 워크로드에 따라 자동으로 인스턴스 수를 늘리거나 줄일 수 있습니다. 대기열에서 읽을 수 있도록 소프트웨어를 업데이트하면 보다 효율적인 방식으로 작업 요청을 처리할 수 있어 시스템 성능이 향상됩니다.
Q8.회사에서 분산 애플리케이션을 AWS로 마이그레이션하고 있습니다. 애플리케이션은 다양한 워크로드를 처리합니다. 레거시 플랫폼은 여러 컴퓨팅 노드에서 작업을 조정하는 기본 서버로 구성됩니다. 이 회사는 탄력성과 확장성을 극대화하는 솔루션으로 애플리케이션을 현대화하려고 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 아키텍처를 어떻게 설계해야 합니까?★
A. 작업의 대상으로 Amazon Simple Queue Service(Amazon SQS) 대기열을 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 예약된 조정을 사용하도록 EC2 Auto Scaling을 구성합니다.
B. 작업의 대상으로 Amazon Simple Queue Service(Amazon SQS) 대기열을 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 대기열 크기에 따라 EC2 Auto Scaling을 구성합니다.
C. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 기본 서버와 컴퓨팅 노드를 구현합니다. 작업의 대상으로 AWS CloudTrail을 구성합니다. 기본 서버의 부하를 기반으로 EC2 Auto Scaling을 구성합니다.
D. Auto Scaling 그룹에서 관리되Amazon EC2인스턴스로기본 서버와 컴퓨팅노드를 구현합니다
작업의 대상으로 Amazon EventBridge(Amazon CloudWatch Events)를구성합니다 컴퓨팅노드의
부하를 기반으로 EC2 Auto Scaling을 구성합니다
Answer : B
A(X) : 예약된 조정 (Scheduled Scaling)은 실시간 현황에 맞춰 적용되는 탄력성이 부족.
B(O) : SQS Queue로 갑작스레 작업이 몰려도 추후 처리하도록 보관 가능. Auto Scaling 그룹으로 여러 EC2 인스턴스의 확장/축소를 적절하게 지원.
C(X) : CloudTrail은 리소스 내역을 기록/전송하는 서비스.
D(X) : CPU사용률에 따라 EC2 Auto Scaling하려면 Target Tracking Policy를 사용하면 됨.
대상 추적 조정 정책을 사용하여 Application Load Balancer의 RequestCountPerTarget 지표 또는 평균 CPU 사용률 같은 지표에 따라 확장하는 것이 좋습니다. 용량이 증가할 때 감소하고 용량이 감소할 때 증가하는 지표를 사용하여 비례적으로 확장하거나 대상 추적을 사용하여 인스턴스 수를 늘릴 수 있습니다.
EventBridge :이벤트를 사용하여 어플리케이션 구성요소를 서로 연결하는 서버리스 서비스 확장 가능한 이벤트 기반 어플리케이션을 더 쉽게 구축할 수 있다
Q9.회사는 데이터 센터에서 SMB 파일 서버를 실행하고 있습니다. 파일 서버는 파일이 생성된 후 처음 며칠 동안 자주 액세스하는 대용량 파일을 저장합니다. 7일이 지나면 파일에 거의 액세스하지 않습니다.
총 데이터 크기가 증가하고 있으며 회사의 총 저장 용량에 가깝습니다. 솔루션 설계자는 가장 최근에 액세스한 파일에 대한 저지연 액세스를 잃지 않으면서 회사의 사용 가능한 저장 공간을 늘려야 합니다. 솔루션 설계자는 향후 스토리지 문제를 방지하기 위해 파일 수명 주기 관리도 제공해야 합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. AWS DataSync를 사용하여 SMB 파일 서버에서 AWS로 7일이 지난 데이터를 복사합니다.
B. Amazon S3 파일 게이트웨이를 생성하여 회사의 스토리지 공간을 확장합니다. S3 수명 주기 정책을 생성하여 7일 후에 데이터를 S3 Glacier Deep Archive로 전환합니다.
C. Windows 파일 서버용 Amazon FSx 파일 시스템을 생성하여 회사의 저장 공간을 확장합니다.
D. 각 사용자의 컴퓨터에 유틸리티를 설치하여 Amazon S3에 액세스합니다. S3 수명 주기 정책을 생성하여 7일 후 데이터를 S3 Glacier Flexible Retrieval로 전환합니다.
Answer : B
사용 가능한 스토리지 공간을 늘림,스토리지 공간확 = Storage Gateway. 답은 B.
A(X) : AWS에서 무슨 스토리지를 사용할 건지에 대한 언급이 없음. 또한 하이브리드 스토리지인 Storage Gateway가 더 적절한 방식임.
B(O) : 정답. 스토리지 게이트웨이는 온프레미스 스토리지와 AWS 스토리지를 합쳐 사실상 무제한의 스토리지를 향유하는 것을 목적으로 하는 서비스.
Amazon S3 File Gateway의 사용 사례로는 (a) 최근에 액세스한 데이터에 대해 빠른 로컬 액세스를 유지하면서 온프레미스 파일 데이터를 Amazon S3로 마이그레이션. SMB(서버 메시지 블록) 버전 2 및 3을 사용하여 게이트웨이에 연결하는 Windows 클라이언트를 지원합니다.
Amazon S3 Glacier Deep Archive:
https://aws.amazon.com/ko/storagegateway/faqs/?nc=sn&loc=6
C(X) : A와 같은 이유로 오답.
D(X) : SMB 사용 여부 불투명.
Amazon S3 Glacier Deep Archive : 일반 가용성을 발표하면서 1년 내에 거의 액세스하지 않는 데이터의 장기 보존을 위한 안전하고 내구성이 뛰어난 객체 스토리지를 제공합니다.
Q10.회사는 AWS에서 전자 상거래 웹 애플리케이션을 구축하고 있습니다. 애플리케이션은 처리할 Amazon API Gateway REST API에 새 주문에 대한 정보를 보냅니다. 회사는 주문이 접수된 순서대로 처리되기를 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. API Gateway 통합을 사용하여 애플리케이션이 주문을 수신할 때 Amazon Simple Notification Service(Amazon SNS) 주제에 메시지를 게시합니다. AWS Lambda 함수를 주제에 구독하여 처리를 수행합니다.
B. API Gateway 통합을 사용하여 애플리케이션이 주문을 수신할 때 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열에 메시지를 보냅니다. 처리를 위해 AWS Lambda 함수를 호출하도록 SQS FIFO 대기열을 구성합니다.
C. API Gateway 권한 부여자를 사용하여 애플리케이션이 주문을 처리하는 동안 모든 요청을 차단합니다.
D. API Gateway 통합을 사용하여 애플리케이션이 주문을 수신할 때 Amazon Simple Queue Service(Amazon SQS) 표준 대기열에 메시지를 보냅니다. 처리를 위해 AWS Lambda 함수를 호출하도록 SQS 표준 대기열을 구성합니다.
Answer : B
주문이 접수된 순서대로 처리되도록 하기 위한 최상의 솔루션은 Amazon SQS( Amazon Simple Queue Service ) FIFO(선입선출) 대기열을 사용하는 것입니다. 이 유형의 대기열은 메시지를 보내고 받는 정확한 순서를 유지합니다. 이 경우 애플리케이션은 새 주문에 대한 정보를 Amazon API Gateway REST API로 보낼 수 있습니다. 그런 다음 API Gateway 통합을 사용하여 처리를 위해 메시지를 Amazon SQS FIFO 대기열로 보낼 수 있습니다. 그런 다음 AWS Lambda 함수를 호출하여 각 주문에 필요한 처리를 수행하도록 대기열을 구성할 수 있습니다. 이렇게 하면 주문이 접수된 정확한 순서대로 처리됩니다.
즉. 주문한 순서대로 = FIFO
Amazon SQS FIFO 대기열 -> 높은처리량 (초당 최대 300전송 수신 또는 삭제),선입선출을 엄격하게 지킴
Amazon SQS 표준 대기열 ->최선의 노력순서 , 무제한처리량
Q11.회사에 Amazon EC2 인스턴스에서 실행되고 Amazon Aurora 데이터베이스를 사용하는 애플리케이션이 있습니다. EC2 인스턴스는 파일에 로컬로 저장된 사용자 이름과 암호를 사용하여 데이터베이스에 연결합니다. 회사는 자격 증명 관리의 운영 오버헤드를 최소화하려고 합니다.솔루션 설계자는 이 목표를 달성하기 위해 무엇을 해야 합니까? ★
A. AWS Secrets Manager를 사용합니다. 자동 회전을 켭니다.
B. AWS Systems Manager Parameter Store를 사용합니다. 자동 회전을 켭니다.
C. AWS Key Management Service(AWS KMS) 암호화 키로 암호화된 객체를 저장할 Amazon S3 버킷을 생성합니다. 자격 증명 파일을 S3 버킷으로 마이그레이션합니다. 애플리케이션이 S3 버킷을 가리키도록 합니다.
D. 각 EC2 인스턴스에 대해 암호화된 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성합니다. 새 EBS 볼륨을 각 EC2 인스턴스에 연결합니다. 자격 증명 파일을 새 EBS 볼륨으로 마이그레이션합니다. 애플리케이션이 새 EBS 볼륨을 가리키도록 합니다.
Answer : A
A(O) : Secrets Manager는 자격증명을 저장해두고 관리할 수 있는 서비스.
AWS Secrets Manager는 애플리케이션, 서비스 및 IT 리소스에 대한 액세스를 보호하는 데 도움이 되는 보안 정보 관리 서비스입니다. 이 서비스를 사용하면 수명 주기 동안 데이터베이스 자격 증명, API 키 및 기타 보안 정보를 손쉽게 교체, 관리 및 검색할 수 있습니다. https://aws.amazon.com/ko/secrets-manager/faqs/
Secrets Manager에서 보안 암호에 대한 자동 교체를 설정할 수 있습니다.
https://docs.aws.amazon.com/secretsmanager/latest/userguide/rotating-secrets.html
B(X) : Systems Manager Parameter Store는 구성 데이터 같은 걸 코드와 분리하여 원치 않는 노출을 막는 것.
Q:AWS Systems Manager parameter store란 무엇입니까? AWS Systems Manager는 데이터베이스 문자열과 같은 평문 데이터든 암호와 같은 비밀이든 관계없이 구성 데이터를 관리할 수 있는 중앙 스토어를 제공합니다. 따라서 비밀과 구성 데이터를 코드와 분리할 수 있습니다. https://aws.amazon.com/ko/systems-manager/faq/
C(X) : KMS키는 S3 버킷에 저장하는 것이 아니라 Secrets Manager 등을 이용해 관리.
D(X) : KMS키는 EBS 에 저장하는 것이 아니라 Secrets Manager 등을 이용해 관리.
Q12.글로벌 회사는 ALB(Application Load Balancer) 뒤의 Amazon EC2 인스턴스에서 웹 애플리케이션을 호스팅합니다. 웹 애플리케이션에는 정적 데이터와 동적 데이터가 있습니다. 회사는 정적 데이터를 Amazon S3 버킷에 저장합니다. 회사는 정적 데이터 및 동적 데이터의 성능을 개선하고 대기 시간을 줄이기를 원합니다. 회사는 Amazon Route 53에 등록된 자체 도메인 이름을 사용하고 있습니다.솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까? ★
A. S3 버킷과 ALB를 오리진으로 포함하는 Amazon CloudFront 배포를 생성합니다. CloudFront 배포로 트래픽을 라우팅하도록 Route 53을 구성합니다.
B. ALB가 오리진인 Amazon CloudFront 배포를 생성합니다. S3 버킷을 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. CloudFront 배포로 트래픽을 라우팅하도록 Route 53을 구성합니다.
C. S3 버킷을 오리진으로 포함하는 Amazon CloudFront 배포를 생성합니다. ALB 및 CloudFront 배포를 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 가속기 DNS 이름을 가리키는 사용자 지정 도메인 이름을 만듭니다. 사용자 지정 도메인 이름을 웹 애플리케이션의 끝점으로 사용합니다.
D. ALB가 오리진인 Amazon CloudFront 배포를 생성합니다. S3 버킷을 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 두 개의 도메인 이름을 만듭니다. 하나의 도메인 이름이 동적 콘텐츠의 CloudFront DNS 이름을 가리키도록 합니다. 다른 도메인 이름이 정적 콘텐츠에 대한 가속기 DNS 이름을 가리키도록 합니다. 도메인 이름을 웹 애플리케이션의 끝점으로 사용합니다.
Answer : A
A(O) : 배포를 만들 때 CloudFront가 파일에 대한 요청을 보내는 원본을 지정합니다. CloudFront에서 여러 원본을 사용할 수 있습니다. 예를 들어 Amazon S3 버킷, MediaStore 컨테이너, MediaPackage 채널, Application Load Balancer 또는 AWS Lambda 함수 URL을 사용할 수 있습니다.
설명2
AWS Global Accelerator 와 CloudFront 를 비교하는문제
They both use the AWS global network and its edge locations around the world
• Both services integrate with AWS Shield for DDoS protection.
• CloudFront • Improves performance for both cacheable content (such as images and videos)
• Dynamic content (such as API acceleration and dynamic site delivery)
• Content is served at the edge • Global Accelerator
• Improves performance for a wide range of applications over TCP or UDP
• Proxying packets at the edge to applications running in one or more AWS Regions.
• Good fit for non-HTTP use cases, such as gaming (UDP), IoT (MQTT), or Voice over IP • Good for HTTP use cases that require static IP addresses • Good for HTTP use cases that required deterministic, fast regional failover
Q13.회사는 AWS 인프라에 대한 월별 유지 관리를 수행합니다. 이러한 유지 관리 활동 중에 회사는 여러 AWS 리전에서 MySQL용 Amazon RDS 데이터베이스에 대한 자격 증명을 교체해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★
A. 자격 증명을 AWS Secrets Manager에 암호로 저장합니다. 필요한 리전에 대해 다중 리전 비밀 복제를 사용합니다. 일정에 따라 보안 암호를 교체하도록 Secrets Manager를 구성합니다.
B. 보안 문자열 파라미터를 생성하여 AWS Systems Manager에 자격 증명을 보안 암호로 저장합니다. 필요한 리전에 대해 다중 리전 비밀 복제를 사용합니다. 일정에 따라 암호를 교체하도록 Systems Manager를 구성합니다.
C. 서버 측 암호화(SSE)가 활성화된 Amazon S3 버킷에 자격 증명을 저장합니다. Amazon EventBridge(Amazon CloudWatch Events)를 사용하여 AWS Lambda 함수를 호출하여 자격 증명을 교체합니다.
D. AWS Key Management Service(AWS KMS) 다중 리전 고객 관리형 키를 사용하여 자격 증명을 비밀로 암호화합니다. Amazon DynamoDB 전역 테이블에 암호를 저장합니다. AWS Lambda 함수를 사용하여 DynamoDB에서 암호를 검색합니다. RDS API를 사용하여 비밀을 교체합니다.
Answer: A
다중 리전 애플리케이션에 필수 리전의 복제된 암호에 대한 액세스 권한을 부여하고 Secrets Manager 를 사용하여 복제본이 기본 암호와 동기화된 상태를 유지할 수 있습니다. Secrets Manager 를 사용하면 데이터베이스 자격 증명, API 키 및 기타 비밀을 포함한 비밀을 저장, 검색, 관리 및 교체할 수 있습니다.
수명주기(순환)에 걸쳐 데이터베이스 보안 인증정보, API키 및 기타 비밀을 교체 관리 및 검색하는 작업을 용이하게함 자격증명의 관리 및 순환을 자동화,데이터베이스 암호를 안전하게 저장하고 암호화
Q14.회사는 Application Load Balancer 뒤의 Amazon EC2 인스턴스에서 전자 상거래 애플리케이션을 실행합니다. 인스턴스는 여러 가용 영역에 걸쳐 Amazon EC2 Auto Scaling 그룹에서 실행됩니다. Auto Scaling 그룹은 CPU 사용률 메트릭을 기반으로 확장됩니다. 전자 상거래 애플리케이션은 대규모 EC2 인스턴스에서 호스팅되는 MySQL 8.0 데이터베이스에 트랜잭션 데이터를 저장합니다.애플리케이션 로드가 증가하면 데이터베이스의 성능이 빠르게 저하됩니다. 애플리케이션은 쓰기 트랜잭션보다 더 많은 읽기 요청을 처리합니다. 이 회사는 고가용성을 유지하면서 예측할 수 없는 읽기 워크로드의 수요를 충족하도록 데이터베이스를 자동으로 확장하는 솔루션을 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. 리더 및 컴퓨팅 기능을 위해 단일 노드와 함께 Amazon Redshift를 사용하십시오.
B. 단일 AZ 배포와 함께 Amazon RDS 사용 다른 가용 영역에 리더 인스턴스를 추가하도록 Amazon RDS를 구성합니다.
C. 다중 AZ 배포와 함께 Amazon Aurora를 사용합니다. Aurora 복제본을 사용하여 Aurora Auto Scaling을 구성합니다.
D. EC2스팟 인스턴스와 함께 Memcached용 Amazon ElastiCache를 사용합니다.
Answer: C
A(X) : 단일 노드에서 고가용성 불만족. RedShift는 MySQL과 같은 관계형 데이터베이스 서비스가 아니라 데이터 웨어하우스 서비스.
B(X) : 단일 AZ이기 때문에 고가용성 불만족.
C(O) : Aurora는 자동으로 3개의 AZ에 6개의 복제본을 생성. 이러한 복제본은 읽기 부하 분산 효과가 있음.
D(X) : 스팟 인스턴스를 사용할 때는 언제든 중지될 위험에 대비해야 함이 기본임. 즉, 중지될 수 있는 위험이 높은 인스턴스라는 이야기. 그리고 다중 AZ를 사용하지 않으므로 고가용성을 만족하지 못했음.
설명2:
Aurora는 RDS에서 MySQL보다 5배 향상된 성능을 제공하며 쓰기보다 더 많은 읽기 요청을 처리합니다. 고가용성 유지 = 다중 AZ 배포.
Q15.최근에 AWS로 마이그레이션한 회사가 프로덕션 VPC로 들어오고 나가는 트래픽을 보호하는 솔루션을 구현하려고 합니다. 이 회사는 사내 데이터 센터에 검사 서버를 가지고 있었습니다. 검사 서버는 트래픽 흐름 검사 및 트래픽 필터링과 같은 특정 작업을 수행했습니다. 회사는 AWS 클라우드에서 동일한 기능을 갖기를 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까? ★
A. 프로덕션 VPC에서 트래픽 검사 및 트래픽 필터링에 Amazon GuardDuty를 사용합니다.
B. 트래픽 미러링을 사용하여 트래픽 검사 및 필터링을 위해 프로덕션 VPC의 트래픽을 미러링합니다.
C. AWS 네트워크 방화벽을 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다.
D. AWS Firewall Manager를 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다.
Answer: C
Amazon GuardDuty | AWS와 주요 서드 파티 통합 위협 인텔리전스와 기계 학습을 결합하여 AWS 계정, 워크로드 및 데이터를 위협으로부터 보호합니다. 위험탐지 서비스 |
Traffic Mirroring | 네트워크 트래픽의 복사본을 VPC에서 다른 VPC 또는 온프레미스 위치로 복제하여 전송할 수 있는 기능 |
AWS Network Firewall | 트래픽 검사, 트래픽필터링 기능 제공 |
AWS Firewall Manager | 계정 전반에 걸쳐 방화벽을 중앙에서 구성하고 관리할 수 있도록 도와주는 ->방화벽컨트롤타워 |
Amazon Inspector |
취약성 검사 |
Q16.회사는 AWS에서 데이터 레이크를 호스팅합니다. 데이터 레이크는 Amazon S3 및 PostgreSQL용 Amazon RDS의 데이터로 구성됩니다. 이 회사는 데이터 시각화를 제공하고 데이터 레이크 내의 모든 데이터 소스를 포함하는 보고 솔루션이 필요합니다. 회사의 관리 팀만 모든 시각화에 대한 전체 액세스 권한을 가져야 합니다. 나머지 회사는 제한된 액세스 권한만 가져야 합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까? ★
A. Amazon QuickSight에서 분석을 생성합니다. 모든 데이터 소스를 연결하고 새 데이터 세트를 만듭니다. 대시보드를 게시하여 데이터를 시각화합니다. 적절한 IAM 역할과 대시보드를 공유합니다.
B. Amazon QuickSight에서 분석을 생성합니다. 모든 데이터 소스를 연결하고 새 데이터 세트를 만듭니다. 대시보드를 게시하여 데이터를 시각화합니다. 적절한 사용자 및 그룹과 대시보드를 공유합니다.
C. Amazon S3의 데이터에 대한 AWS Glue 테이블 및 크롤러를 생성합니다. AWS Glue 추출, 변환 및 로드(ETL) 작업을 생성하여 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.
D. Amazon S3의 데이터에 대한 AWS Glue 테이블과 크롤러를 생성합니다. Amazon Athena 연합 쿼리를 사용하여 PostgreSQL용 Amazon RDS 내의 데이터에 액세스합니다. Amazon Athena를 사용하여 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.
Answer: B
시각화 = QuickSight. A,B 둘 중 하나가 정답. 대시보드를 그룹과 사용자와 공유해야하므로 정답은 B.
기본적으로 Amazon QuickSight의 대시보드는 누구와도 공유되지 않으며 소유자만 액세스할 수 있습니다. 그러나 대시보드를 게시한 후에는 QuickSight 계정의 다른 사용자 또는 그룹과 공유할 수 있습니다.
QuickSight don't support IAM
설명2:
Amazon QuickSight는 PostgreSQL용 Amazon S3 및 Amazon RDS를 비롯한 다양한 데이터 소스에서 대화형 대시보드 및 보고서를 생성할 수 있는 데이터 시각화 서비스입니다. 모든 데이터 소스를 연결하고 QuickSight에서 새 데이터 세트를 만든 다음 대시보드를 게시하여 데이터를 시각화할 수 있습니다. 또한 적절한 사용자 및 그룹과 대시보드를 공유하고 IAM 역할 및 권한을 사용하여 액세스 수준을 제어할 수 있습니다.
Q17.회사에서 새로운 비즈니스 애플리케이션을 구현하고 있습니다. 이 애플리케이션은 두 개의 Amazon EC2 인스턴스에서 실행되며 문서 저장을 위해 Amazon S3 버킷을 사용합니다. 솔루션 설계자는 EC2 인스턴스가 S3 버킷에 액세스할 수 있는지 확인해야 합니다.솔루션 설계자는 이 요구 사항을 충족하기 위해 무엇을 해야 합니까? ★
A. S3 버킷에 대한 액세스 권한을 부여하는 IAM 역할을 생성합니다. 역할을 EC2 인스턴스에 연결합니다.
B. S3 버킷에 대한 액세스 권한을 부여하는 IAM 정책을 생성합니다. 정책을 EC2 인스턴스에 연결합니다.
C. S3 버킷에 대한 액세스 권한을 부여하는 IAM 그룹을 생성합니다. 그룹을 EC2 인스턴스에 연결합니다.
D. S3버킷에 대한 액세스 권한을 부여하는 IAM 사용자를 생성합니다. 사용자 계정을 EC2 인스턴스에 연결합니다.
Answer: A
IAM 구성
- 사용자 : AWS 사용자 혹은 어플리케이션
- 그룹 : 사용자의 집합 , 그룹에 속한 사용자는 그룹에 부여된 권한을 행사
- 정책 (Policy) : 사용자 or 그룹에 정책설정 / JSON 형식으로 정의
- 역할(Role) : AWS 리소스가 무엇을 할 수 있는지를 정의 ,역할은 서비스에 부여가능 , 역할을 변경하여 서비스 사용 가능
EC2 인스턴스가 S3 버킷에 액세스할 수 있는 권한이 있어야 하므로 IAM 역할을 부여해야 함.
EC2 인스턴스에서 S3 버킷에 연결하려면 다음을 실행해야 합니다.
1. Amazon S3에 대한 액세스 권한을 부여하는 AWS Identity and Access Management(IAM) 프로파일 역할을 생성합니다.
2. 인스턴스에 IAM 인스턴스 프로파일을 연결합니다.
3. S3 버킷에 대한 권한을 확인합니다.
Q18.애플리케이션 개발 팀은 큰 이미지를 더 작은 압축 이미지로 변환하는 마이크로서비스를 설계하고 있습니다. 사용자가 웹 인터페이스를 통해 이미지를 업로드하면 마이크로 서비스는 이미지를 Amazon S3 버킷에 저장하고, AWS Lambda 함수로 이미지를 처리 및 압축하고, 다른 S3 버킷에 압축된 형태로 이미지를 저장해야 합니다.
솔루션 설계자는 내구성이 있는 상태 비저장 구성 요소를 사용하여 이미지를 자동으로 처리하는 솔루션을 설계해야 합니다.이러한 요구 사항을 충족하는 작업 조합은 무엇입니까? (2개를 선택하세요.) ★
A. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. 이미지가 S3 버킷에 업로드될 때 SQS 대기열에 알림을 보내도록 S3 버킷을 구성합니다.
B. Amazon Simple Queue Service(Amazon SQS) 대기열을 호출 소스로 사용하도록 Lambda 함수를 구성합니다. SQS 메시지가 성공적으로 처리되면 대기열에서 메시지를 삭제합니다.
C. 새 업로드에 대해 S3 버킷을 모니터링하도록 Lambda 함수를 구성합니다. 업로드된 이미지가 감지되면 메모리의 텍스트 파일에 파일 이름을 쓰고 텍스트 파일을 사용하여 처리된 이미지를 추적합니다.
D. Amazon EC2 인스턴스를 시작하여 Amazon Simple Queue Service(Amazon SQS) 대기열을 모니터링합니다. 항목이 대기열에 추가되면 EC2 인스턴스의 텍스트 파일에 파일 이름을 기록하고 Lambda 함수를 호출합니다.
E. Amazon EventBridge(Amazon CloudWatch Events) 이벤트를 구성하여 S3 버킷을 모니터링합니다. 이미지가 업로드되면 추가 처리를 위해 애플리케이션 소유자의 이메일 주소와 함께 Amazon ample Notification Service(Amazon SNS) 주제에 알림을 보냅니다.
A,E 조합으로 S3버킷->EventBridge->SNS Topic->SQS->Lambda 프로세스도 가능하긴 한데, A,B 조합으로 S3->SQS->Lambda가 훨씬 운영 및 비용 효율적.
・S3 Events -> SQS Queue
Amazon S3은 다음과 같은 대상으로 이벤트 알림 메시지를 보낼 수 있습니다....◎Amazon Simple Queue Service(Amazon SQS) 대기열
https://docs.aws.amazon.com/ko_kr/AmazonS3/latest/userguide/NotificationHowTo.html
・SQS Queue -> Lambda
Amazon Simple Queue Service(SQS) 대기열을 생성하고 이미지가 S3 버킷에 업로드될 때 SQS 대기열에 알림을 보내도록 S3 버킷을 구성하면 Lambda 함수가 상태 비저장 및 내구성 방식으로 트리거됩니다.
SQS 대기열을 호출 소스로 사용하도록 Lambda 함수를 구성하고 성공적으로 처리된 후 대기열에서 메시지를 삭제하면 Lambda 함수가 상태 비저장 및 내구성 방식으로 이미지를 처리합니다
Q19.회사에 AWS에 배포된 3계층 웹 애플리케이션이 있습니다. 웹 서버는 VPC의 퍼블릭 서브넷에 배포됩니다. 애플리케이션 서버와 데이터베이스 서버는 동일한 VPC의 프라이빗 서브넷에 배포됩니다. 이 회사는 AWS Marketplace의 타사 가상 방화벽 어플라이언스를 검사 VPC에 배포했습니다. 어플라이언스는 IP 패킷을 수락할 수 있는 IP 인터페이스로 구성됩니다.솔루션 설계자는 트래픽이 웹 서버에 도달하기 전에 애플리케이션에 대한 모든 트래픽을 검사하기 위해 웹 애플리케이션을 어플라이언스와 통합해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★
A. 애플리케이션 VPC의 퍼블릭 서브넷에 Network Load Balancer를 생성하여 패킷 검사를 위해 어플라이언스로 트래픽을 라우팅합니다.
B. 애플리케이션 VPC의 퍼블릭 서브넷에 Application Load Balancer를 생성하여 패킷 검사를 위해 어플라이언스로 트래픽을 라우팅합니다.
C. 전송 게이트웨이를 통해 들어오는 패킷을 라우팅하도록 라우팅 테이블을 구성하는 검사 VPC에 전송 게이트웨이를 배포합니다.
D.검사 VPC에 게이트웨이 로드 밸런서를 배포합니다. 게이트웨이 로드 밸런서 엔드포인트를 생성하여 수신 패킷을 수신하고 패킷을 어플라이언스로 전달합니다.
Answer: D
AWS Gateway Load Balancer 를 사용하면 보안 어플라이언스와 같은 타사 가상 어플라이언스를 쉽게 배포, 확장 및 관리할 수 있습니다.
오늘 AWS Gateway Load Balancer(GWLB)가 정식 출시되었다는 소식을 알려드리고자 합니다. 이를 통해 타사 가상 어플라이언스의 가용성을 쉽고 비용 효율적으로 배포, 확장 및 관리 할 수있는 서비스 방화벽 , 침입 감지 및 방지 시스템과 클라우드의 심층 패킷 검사 시스템. AWS 파트너 네트워크 및 AWS Marketplace 파트너는 규모, 가용성 및 서비스 제공이라는 복잡한 문제를 해결하지 않고도 AWS 고객에게 가상 어플라이언스를 서비스로 제공 할 수도 있습니다.
Q20.회사에서 동일한 AWS 리전의 테스트 환경에 대량의 프로덕션 데이터를 복제하는 기능을 개선하려고 합니다. 데이터는 Amazon Elastic Block Store(Amazon EBS) 볼륨의 Amazon EC2 인스턴스에 저장됩니다. 복제된 데이터를 수정해도 프로덕션 환경에 영향을 주지 않아야 합니다. 이 데이터에 액세스하는 소프트웨어는 일관되게 높은 I/O 성능을 요구합니다.솔루션 설계자는 프로덕션 데이터를 테스트 환경에 복제하는 데 필요한 시간을 최소화해야 합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까? ★★
A. 프로덕션 EBS 볼륨의 EBS 스냅샷을 만듭니다. 테스트 환경의 EC2 인스턴스 스토어 볼륨에 스냅샷을 복원합니다.
B. EBS 다중 연결 기능을 사용하도록 프로덕션 EBS 볼륨을 구성합니다. 프로덕션 EBS 볼륨의 EBS 스냅샷을 만듭니다. 테스트 환경의 EC2 인스턴스에 프로덕션 EBS 볼륨을 연결합니다.
C. 프로덕션 EBS 볼륨의 EBS 스냅샷을 만듭니다. 새 EBS 볼륨을 생성하고 초기화합니다. 프로덕션 EBS 스냅샷에서 볼륨을 복원하기 전에 테스트 환경의 EC2 인스턴스에 새 EBS 볼륨을 연결합니다.
D.프로덕션 EBS 볼륨의 EBS 스냅샷을 만듭니다. EBS 스냅샷에서 EBS 빠른 스냅샷 복원 기능을 켭니다. 스냅샷을 새 EBS 볼륨으로 복원합니다. 테스트 환경의 EC2 인스턴스에 새 EBS 볼륨을 연결합니다.
Answer: D
A(X) : 인스턴스 스토어 볼륨은 휘발성이라 꺼지면 데이터 날라감.
B(X) : EBS 다중 연결을 사용하게 되면 복제된 데이터를 수정할 때 프로덕션 환경에 영향을 주게 됨. 이는 지문에서 요구한 사항과 위배됨.
C(X) : 스냅샷으로 새로운 볼륨을 만드는 것이지 만들어진 볼륨에 스냅샷을 복원하는 게 아님.
D(O) : 정답.
Q21.전자 상거래 회사는 AWS에서 하루 1회 웹 사이트를 시작하려고 합니다. 매일 24시간 동안 정확히 하나의 제품을 판매합니다. 회사는 피크 시간 동안 밀리초 지연 시간으로 시간당 수백만 개의 요청을 처리할 수 있기를 원합니다.최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★
A. Amazon S3를 사용하여 다른 S3 버킷에 전체 웹 사이트를 호스팅합니다. Amazon CloudFront 배포를 추가합니다. S3 버킷을 배포의 오리진으로 설정합니다. Amazon S3에 주문 데이터를 저장합니다.
B. 여러 가용 영역의 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스에 전체 웹 사이트를 배포합니다. ALB(Application Load Balancer)를 추가하여 웹 사이트 트래픽을 분산합니다. 백엔드 API에 대해 다른 ALB를 추가하십시오. MySQL용 Amazon RDS에 데이터를 저장합니다.
C. 컨테이너에서 실행되도록 전체 애플리케이션을 마이그레이션합니다. Amazon Elastic Kubernetes Service(Amazon EKS)에서 컨테이너를 호스팅합니다. Kubernetes 클러스터 자동 확장 처리를 사용하여 트래픽 버스트를 처리할 포드 수를 늘리거나 줄입니다. MySQL용 Amazon RDS에 데이터를 저장합니다.
D. Amazon S3버킷을 사용하여 웹 사이트의 정적 콘텐츠를 호스팅합니다. Amazon CloudFront 배포를 배포합니다. S3 버킷을 오리진으로 설정합니다. 백엔드 API에 Amazon API Gateway 및 AWS Lambda 함수를 사용합니다. Amazon DynamoDB에 데이터를 저장합니다.
Answer: D
A(X) : 전체 웹사이트를 호스팅하기에는 동적인 요소들이 들어가 있을 수 있는데 S3+CloudFront 조합은 정적 웹사이트 호스팅을 위한 것임.
B(X) : RDS는 기본적으로 Auto Scaling을 사용하지 않음. 따로 켜야하는데 해당 선택지엔 Auto Scaling을 사용한단 언급이 없음.
워크로드를 예측할 수 없는 경우 Amazon RDS DB 인스턴스에 대해 스토리지 Autoscaling을 활성화할 수 있습니다.
C(X) : B와 동일한 이유로 오답.
D(O) : 정적인 웹사이트 요소들은 S3 + CloudFront로 빠르게 제공하고, API Gateway에서 Lambda 함수를 호출해 DynamoDB에 데이터 저장 가능. DynamoDB는 확장성이 뛰어나고 밀리초 단위 액세스를 지원하는 데이터베이스 유형.
・S3 + CloudFront 조합의 정적 웹사이트 호스팅
・ DynamoDB : 완전관리형 NoSQL 데이터베이스 서비스로서 원활한 확장성과 함께 빠르고 예측 가능한 성능을 제공합니다. DynamoDB는 분산 데이터베이스를 운영하고 크기 조정하는 데 따른 관리 부담을 줄여서 하드웨어 프로비저닝, 설정 및 구성, 복제, 소프트웨어 패치 또는 클러스터 크기 조정에 대해 걱정할 필요가 없게 합니다. 또한 DynamoDB는 유휴 시 암호화를 제공하여 중요한 데이터 보호와 관련된 운영 부담 및 복잡성을 제거합니다.
Q22.솔루션 설계자는 Amazon S3를 사용하여 새로운 디지털 미디어 애플리케이션의 스토리지 아키텍처를 설계하고 있습니다. 미디어 파일은 가용 영역 손실에 대한 복원력이 있어야 합니다. 일부 파일은 자주 액세스되는 반면 다른 파일은 예측할 수 없는 패턴으로 거의 액세스되지 않습니다. 솔루션 설계자는 미디어 파일을 저장하고 검색하는 비용을 최소화해야 합니다.이러한 요구 사항을 충족하는 스토리지 옵션은 무엇입니까?
A. S3 Standard (S3 표준)
B. S3 Intelligent-Tiering (S3 지능형 계층화)
C. S3 Standard-Infrequent Access(S3 Standard-IA)
D. S3 One Zone-Infrequent Access(S3 One Zone-IA)
Answer: B
***S3스토리지 클래스
S3 Intelligent-Tiering : 액세스 빈도 또는 불규칙한 사용 패턴을 모를 때 완벽한 사용 사례입니다.
S3 Standard : 자주액세스 하는 데이터 범용 스토리지
S3 Standard-Infrequent Access(S3 Standard-IA) 및
S3 One Zone-Infrequent Access(S3 One Zone-IA)는 수명이 길지만 액세스 빈도가 낮은 데이터를 위한 것입니다.
Amazon S3 Glacier(S3 Glacier) 및 Amazon S3 Glacier(빙하) Deep Archive(S3 Glacier Deep Archive).
: 장기 아카이브 및 디지털 보존을 위한 스토리지
Amazon S3는 수명 주기 동안 데이터를 관리하는 기능도 제공합니다. S3 수명 주기 정책이 설정되면 애플리케이션을 변경하지 않고도 데이터가 자동으로 다른 스토리지 클래스로 전송됩니다.
Q23.회사에서 Amazon S3 Standard 스토리지를 사용하여 백업 파일을 저장하고 있습니다. 1개월 동안 파일에 자주 액세스합니다. 단, 1개월 이후에는 파일에 접근하지 않습니다. 회사는 파일을 무기한 보관해야 합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 스토리지 솔루션은 무엇입니까?
A. 객체를 자동으로 마이그레이션하도록 S3 Intelligent-Tiering을 구성합니다.
B. S3 수명 주기 구성을 생성하여 1개월 후에 S3 Standard에서 S3 Glacier Deep Archive로 객체를 전환합니다.
C. S3 수명 주기 구성을 생성하여 1개월 후에 객체를 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 전환합니다.
D. S3 수명 주기 구성을 생성하여 1개월 후에 객체를 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환합니다.
Answer: B
- 1개월 동안 자주액세스 : S3 Standard
- 1개월 이후 파일에 접근하지 않음 S3 Glacier Deep Archive
Q24.회사는 가장 최근 청구서에서 Amazon EC2 비용 증가를 관찰했습니다. 청구 팀은 몇 개의 EC2 인스턴스에 대한 인스턴스 유형의 원치 않는 수직적 확장을 발견했습니다. 솔루션 설계자는 지난 2개월간의 EC2 비용을 비교하는 그래프를 생성하고 심층 분석을 수행하여 수직적 확장의 근본 원인을 식별해야 합니다.
솔루션 설계자는 운영 오버헤드가 가장 적은 정보를 어떻게 생성해야 합니까? ★
A. AWS 예산을 사용하여 예산 보고서를 생성하고 인스턴스 유형에 따라 EC2 비용을 비교합니다.
B. Cost Explorer의 세분화된 필터링 기능을 사용하여 인스턴스 유형을 기반으로 EC2 비용에 대한 심층 분석을 수행합니다.
C. AWS Billing and Cost Management 대시보드의 그래프를 사용하여 지난 2개월 동안의 인스턴스 유형을 기준으로 EC2 비용을 비교합니다.
D. AWS비용 및 사용 보고서를 사용하여 보고서를 생성하고 Amazon S3 버킷으로 보냅니다. Amazon S3와 함께 Amazon QuickSight를 소스로 사용하여 인스턴스 유형을 기반으로 대화형 그래프를 생성합니다.
Answer: B
AWS Budgets | AWS Budgets를 사용하면 예산이 특정한 비용 또는 사용량 임계값을 초과할 때 사용자를 대신해 조치를 취하도록 할 수 있습니다. 이렇게 하려면 임계값을 설정한 후 자동으로, 또는 수동 승인 후에 실행되도록 예산 작업을 구성합니다 |
AWS Cost Explorer | AWS Cost Explorer는 시간에 따른 AWS 비용과 사용량을 시각화, 이해 및 관리할 수 있는 손쉬운 인터페이스를 제공합니다. 비용 및 사용량 데이터를 분석하는 사용자 지정 보고서를 작성하여 신속하게 시작합니다. 데이터를 높은 수준으로 분석(예: 모든 계정의 총 비용 및 사용량)하거나 비용 및 사용량 데이터를 자세히 분석하여 추세를 식별하고 비용 동인을 파악하고 이상을 탐지합니다. 최대 지난 12개월 동안의 데이터를 보고 향후 12개월 동안 지출할 가능성이 있는 금액을 예측하고 구매할 예약 인스턴스에 대한 추천을 받을 수 있습니다. |
AWS Billing and Cost Management | ?? |
Amazon QuickSight | 대화형 데이터 분석을 기반으로 멋진 시각화를 빠르게 만들 수 있다, 데이터시각화 (비용과 무관) |
Q25.회사에서 응용 프로그램을 설계하고 있습니다. 애플리케이션은 AWS Lambda 함수를 사용하여 Amazon API Gateway를 통해 정보를 수신하고 Amazon Aurora PostgreSQL 데이터베이스에 정보를 저장합니다.
개념 증명 단계에서 회사는 데이터베이스에 로드해야 하는 대용량 데이터를 처리하기 위해 Lambda 할당량을 크게 늘려야 합니다. 솔루션 설계자는 확장성을 개선하고 구성 노력을 최소화하기 위해 새로운 설계를 권장해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. Lambda 함수 코드를 Amazon EC2 인스턴스에서 실행되는 Apache Tomcat 코드로 리팩터링합니다. 네이티브 JDBC(Java Database Connectivity) 드라이버를 사용하여 데이터베이스를 연결합니다.
B. 플랫폼을 Aurora에서 Amazon DynamoDProvision a DynamoDB Accelerator(DAX) 클러스터로 변경합니다. DAX 클라이언트 SDK를 사용하여 DAX 클러스터에서 기존 DynamoDB API 호출을 가리킵니다.
C. 두 개의 Lambda 함수를 설정합니다. 정보를 수신할 하나의 기능을 구성하십시오. 정보를 데이터베이스에 로드하도록 다른 기능을 구성하십시오. Amazon Simple Notification Service(Amazon SNS)를 사용하여 Lambda 함수를 통합합니다.
D.두 개의 Lambda 함수를 설정합니다. 정보를 수신할 하나의 기능을 구성하십시오.정보를 데이터베이스에 로드하도록 다른 기능을 구성하십시오. Amazon Simple Queue Service(Amazon SQS) 대기열을 사용하여 Lambda 함수를 통합합니다.
Q26.회사는 AWS 클라우드 배포를 검토하여 Amazon S3 버킷에 무단 구성 변경이 없는지 확인해야 합니다.
솔루션 설계자는 이 목표를 달성하기 위해 무엇을 해야 합니까?
A. 적절한 규칙으로 AWS Config를 켭니다.
B. 적절한 검사를 통해 AWS Trusted Advisor를 켭니다.
C. 적절한 평가 템플릿으로 Amazon Inspector를 켭니다.
D. Amazon S3 서버 액세스 로깅을 켭니다. Amazon EventBridge(Amazon Cloud Watch Events)를 구성합니다.
Answer: A
AWS Config | AWS 리소스(인프라)구성을 측정, 감사 및 평가할 수 있는 서비스입니다. Config는 AWS 리소스 구성을 지속적으로 모니터링 및 기록하고, 원하는 구성을 기준으로 기록된 구성을 자동으로 평가해 줍니다. |
AWS Trusted Advisor | 클라우드에서 대규모로 운영하고, 보안 및 복원력을 개선하고, 성능을 높이고, 비용을 최적화할 수 있습니다. Trusted Advisor는 비용 최적화, 성능, 복원력, 보안, 운영 우수성, 서비스 한도의 범주에서 모범 사례 검사를 사용하여 AWS 환경을 지속적으로 평가하고, 모범 사례와의 편차를 해결하기 위한 조치를 권장합니다 믿을만한 충고자 = 모범사례 추천 |
Amazon Inspector | 취약성 검사 |
Amazon EventBridge(Amazon Cloud Watch Events) | 이벤트를 사용하여 어플리케이션 구성요소를 서로 연결하는 서버리스 서비스 확장 가능한 이벤트 기반 어플리케이션을 더 쉽게 구축할 수 있다 |
Q27.회사에서 새 애플리케이션을 시작하고 Amazon CloudWatch 대시보드에 애플리케이션 지표를 표시합니다. 회사의 제품 관리자는 이 대시보드에 주기적으로 액세스해야 합니다. 제품 관리자에게 AWS 계정이 없습니다. 솔루션 설계자는 최소 권한 원칙에 따라 제품 관리자에 대한 액세스를 제공해야 합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까? ★
A. CloudWatch 콘솔에서 대시보드를 공유합니다. 제품 관리자의 이메일 주소를 입력하고 공유 단계를 완료합니다. 대시보드에 대한 공유 가능한 링크를 제품 관리자에게 제공하십시오.
B. 특히 제품 관리자를 위한 IAM 사용자를 생성합니다. CloudWatchReadOnlyAccess AWS 관리형 정책을 사용자에게 연결합니다. 새 로그인 자격 증명을 제품 관리자와 공유하십시오. 올바른 대시보드의 브라우저 URL을 제품 관리자와 공유하십시오.
C. 회사 직원을 위한 IAM 사용자를 생성합니다. ViewOnlyAccess AWS 관리형 정책을 IAM 사용자에게 연결합니다. 새 로그인 자격 증명을 제품 관리자와 공유하십시오. 제품 관리자에게 CloudWatch 콘솔로 이동하여 대시보드 섹션에서 이름으로 대시보드를 찾으라고 요청합니다.
D. 퍼블릭 서브넷에 배스천 서버를 배포합니다. 제품 관리자가 대시보드에 액세스해야 하는 경우 서버를 시작하고 RDP 자격 증명을 공유합니다. 배스천 서버에서 대시보드를 볼 수 있는 적절한 권한이 있는 캐시된 AWS 자격 증명으로 대시보드 URL을 열도록 브라우저가 구성되어 있는지 확인합니다.
Answer : A
Amazon CloudWatch는 Amazon Web Services(AWS) 리소스 및 AWS에서 실행되는 애플리케이션을 실시간으로 모니터링합니다- IAM 과 무관함
AWS 계정에 직접 액세스할 수 없는 사람들과 CloudWatch 대시보드를 공유할 수 있습니다. 대시보드를 공유할 때 다음 세 가지 방법으로 대시보드를 볼 수 있는 사람을 지정할 수 있습니다.
◎하나의 대시보드를 공유하고 대시보드를 볼 수 있는 사람들의 특정 이메일 주소를 지정합니다. 이러한 각 사용자는 대시보드를 보기 위해 입력해야 하는 고유한 암호를 만듭니다.
◎링크가 있는 모든 사용자가 대시보드를 볼 수 있도록 단일 대시보드를 공개적으로 공유합니다.
◎계정의 모든 CloudWatch 대시보드를 공유하고 대시보드 액세스를 위한 타사 SSO(Single Sign-On) 공급자를 지정합니다. 이 SSO 공급자 목록의 구성원인 모든 사용자는 계정의 모든 대시보드에 액세스할 수 있습니다. 이를 활성화하려면 SSO 공급자를 Amazon Cognito와 통합합니다. SSO 공급자는 SAML(Security Assertion Markup Language)을 지원해야 합니다.
Q28.회사에서 애플리케이션을 AWS로 마이그레이션하고 있습니다. 응용 프로그램은 다른 계정에 배포됩니다. 회사는 AWS Organizations를 사용하여 중앙에서 계정을 관리합니다. 회사의 보안 팀은 회사의 모든 계정에 SSO(Single Sign-On) 솔루션이 필요합니다. 회사는 사내 자체 관리 Microsoft Active Directory에서 사용자 및 그룹을 계속 관리해야 합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까? ★★
A. AWS SSO 콘솔에서 AWS Single Sign-On(AWS SSO)을 활성화합니다. 단방향 포리스트 트러스트 또는 단방향 도메인 트러스트를 생성하여 Microsoft Active Directory용 AWS Directory Service를 사용하여 회사의 자체 관리형 Microsoft Active Directory를 AWS SSO와 연결합니다.
B. AWS SSO 콘솔에서 AWS Single Sign-On(AWS SSO)을 활성화합니다. Microsoft Active Directory용 AWS Directory Service를 사용하여 회사의 자체 관리형 Microsoft Active Directory를 AWS SSO와 연결하는 양방향 포리스트 트러스트를 생성합니다.
C. AWS 디렉터리 서비스를 사용합니다. 회사의 자체 관리 Microsoft Active Directory와 양방향 신뢰 관계를 만드십시오.
D. 온프레미스에 ID 공급자(IdP)를 배포합니다. AWS SSO 콘솔에서 AWS Single Sign-On(AWS SSO)을 활성화합니다.
Answer : B
AWS Organizations로 SSO 설정하여 Active Directory 사용 가능.
A(X) : SSO, AWS 관리 콘솔에는 양방향 트러스트가 필요.
C(X) : SSO는 온프레미스 Active Directory나 AWS 관리형 Microsoft AD Directory에 연결할 수 있지, 온프레미스 Microsoft AD Direcotry에 연결할 수는 없음. ▲위의 설명 참고
D(X) : IdP는 외부 자격 증명 서비스.
자격 증명 공급자(IdP)를 사용하면 AWS 외부의 사용자 자격 증명을 관리할 수 있고 이 외부 사용자 자격 증명에 계정의 AWS 리소스에 대한 사용 권한을 부여할 수 있습니다.
Q29.회사는 UDP 연결을 사용하는 VoIP(Voice over Internet Protocol) 서비스를 제공합니다. 이 서비스는 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스로 구성됩니다. 회사는 여러 AWS 리전에 배포하고 있습니다.
회사는 지연 시간이 가장 짧은 리전으로 사용자를 라우팅해야 합니다. 이 회사는 또한 지역 간 자동 장애 조치가 필요합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까? ★
A. NLB(Network Load Balancer) 및 연결된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 NLB를 AWS Global Accelerator 엔드포인트로 사용합니다.
B. ALB(Application Load Balancer) 및 연결된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 ALB를 AWS Global Accelerator 엔드포인트로 사용합니다.
C. NLB(Network Load Balancer) 및 연결된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 NLB의 별칭을 가리키는 Amazon Route 53 지연 시간 레코드를 생성합니다. 지연 시간 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 생성합니다.
D. ALB(Application Load Balancer)및 연결된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 ALB의 별칭을 가리키는 Amazon Route 53 가중치 레코드를생성합니다. 가중 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 배포합니다.
Answer: A
UDP 연결을 사용한다고 했으므로 NLB. 대기 시간이 가장 짧은 리전으로 라우팅 + UDP 사용 = AWS Global Accelerator.
HTTP /HTTPS - ALB
TCP and UDP - NLB
Q30.개발 팀은 성능 개선 도우미가 활성화된 MySQL DB 인스턴스용 범용 Amazon RDS에서 매월 리소스 집약적 테스트를 실행합니다. 테스트는 한 달에 한 번 48시간 동안 지속되며 데이터베이스를 사용하는 유일한 프로세스입니다. 팀은 DB 인스턴스의 컴퓨팅 및 메모리 속성을 줄이지 않고 테스트 실행 비용을 줄이려고 합니다.
어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족합니까? ★
A. 테스트가 완료되면 DB 인스턴스를 중지합니다. 필요한 경우 DB 인스턴스를 다시 시작합니다.
B. DB 인스턴스와 함께 Auto Scaling 정책을 사용하여 테스트가 완료되면 자동으로 확장합니다.
C. 테스트가 완료되면 스냅샷을 만듭니다. DB 인스턴스를 종료하고 필요한 경우 스냅샷을 복원합니다.
D. 테스트가 완료되면 DB 인스턴스를 저용량 인스턴스로 수정합니다. 필요한 경우 DB 인스턴스를 다시 수정합니다.
Answer: C
한 달에 한 번 48시간 동안만 사용하고, 가장 비용 효율적인 방법을 사용해야하므로 스냅샷이 제일 저렴.
A(X) : DB 인스턴스를 중지해도 DB 인스턴스가 돌아가는 EBS 볼륨이나 이런 건 사용하지 않아도 보유 중인 용량에 따라 요금이 부과됨.
B(X) : Auto Scaling을 사용하게 되면 사용하지 않을 때에도 인스턴스가 실행 상태가 되므로 스냅샷 보관보다 비용이 더 부과됨
C(O) : 스냅샷으로 보관해서 저장하면 스냅샷 용량만큼만 비용이 부과됨.
D(X) : 사용 중이 아닐 때도 인스턴스가 실행 상태이므로 스냅샷 보관보다 비용이 더 부과됨
Q31.AWS에서 웹 애플리케이션을 호스팅하는 회사는 모든 Amazon EC2 인스턴스를 보장하기를 원합니다. Amazon RDS DB 인스턴스. Amazon Redshift 클러스터는 태그로 구성됩니다. 회사는 이 검사를 구성하고 운영하는 노력을 최소화하기를 원합니다.솔루션 설계자는 이를 달성하기 위해 무엇을 해야 합니까? ★
A. AWS Config 규칙을 사용하여 적절하게 태그가 지정되지 않은 리소스를 정의하고 감지합니다.
B. 비용 탐색기를 사용하여 제대로 태그가 지정되지 않은 리소스를 표시합니다. 해당 리소스에 수동으로 태그를 지정합니다.
C. 적절한 태그 할당을 위해 모든 리소스를 확인하는 API 호출을 작성합니다. EC2 인스턴스에서 주기적으로 코드를 실행합니다.
D. 적절한 태그 할당을 위해 모든 리소스를 확인하는 API 호출을 작성합니다. Amazon CloudWatch를 통해 AWS Lambda 함수를 예약하여 코드를 주기적으로 실행합니다.
Answer: A
AWS Config 리소스에 태그 지정
모든 Amazon EC2 인스턴스, Amazon RDS DB 인스턴스 및 Amazon Redshift 클러스터가 태그로 구성되도록 하려면 솔루션 설계자가 AWS Config 규칙을 사용하여 적절하게 태그가 지정되지 않은 리소스를 정의하고 감지해야 합니다. AWS Config 규칙은 AWS Config가 모범 사례 및 회사 정책을 준수하는지 AWS 리소스 구성을 평가하는 데 사용하는 사용자 지정 가능한 규칙 세트입니다. AWS Config 규칙을 사용하면 비준수 리소스를 식별하고 담당 팀에 알리는 프로세스를 자동화하므로 이 검사를 구성하고 운영하는 노력을 최소화할 수 있습니다.
참조: AWS Config 규칙 플래그지정
- COMPLIANT - 규칙이 규정 준수 검사 조건을 통과합니다.
- NON_COMPLIANT - 규칙이 규정 준수 검사 조건에 실패합니다.
- ERROR - 필수/선택적 파라미터 중 하나가 유효하지 않거나 올바른 유형이 아니거나 형식이 잘못되었습니다.
- NOT_APPLICABLE - 규칙의 논리를 적용할 수 없는 리소스를 필터링하는 데 사용되었습니다. 예를 들어 alb-desync-mode-check 규칙은 Application Load Balancer만 검사하고 Network Load Balancer 및 Gateway Load Balancer는 무시합니다.
Q32.개발 팀은 다른 팀이 액세스할 웹사이트를 호스팅해야 합니다. 웹사이트 콘텐츠는 HTML, CSS, 클라이언트 측 JavaScript 및 이미지로 구성됩니다.웹 사이트 호스팅에 가장 비용 효율적인 방법은 무엇입니까?★
A. 웹 사이트를 컨테이너화하고 AWS Fargate에서 호스팅합니다.
B. Amazon S3 버킷을 생성하고 거기에서 웹 사이트를 호스팅합니다.
C. Amazon EC2 인스턴스에 웹 서버를 배포하여 웹 사이트를 호스팅합니다.
D. Express.js 프레임워크를 사용하는 AWS Lambda 대상으로 Application Load Balancer를 구성합니다.
Answer: B
HTML , CSS 같은 정적 컨테츠는 S3!
모두 정적 웹사이트 콘텐츠 유형에 해당.Amazon S3를 사용하여 웹 서버를 구성하거나 관리할 필요 없이 정적 웹 사이트를 호스팅할 수 있습니다. 다음 단계를 완료하여 웹사이트에 모든 고정 자산을 호스팅할 새 Amazon S3 버킷을 생성합니다. 이 자산에는 HTML, CSS, JavaScript, 이미지 파일이 포함됩니다.
Q33.회사는 AWS에서 온라인 마켓플레이스 웹 애플리케이션을 실행합니다. 이 애플리케이션은 피크 시간에 수십만 명의 사용자에게 서비스를 제공합니다. 이 회사는 수백만 건의 금융 거래 세부 정보를 다른 여러 내부 애플리케이션과 공유할 수 있는 확장 가능한 거의 실시간 솔루션이 필요합니다. 또한 지연 시간이 짧은 검색을 위해 문서 데이터베이스에 저장하기 전에 민감한 데이터를 제거하기 위해 트랜잭션을 처리해야 합니다.
이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 권장해야 합니까?
A. 트랜잭션 데이터를 Amazon DynamoDB에 저장합니다. 쓰기 시 모든 트랜잭션에서 민감한 데이터를 제거하도록 DynamoDB에서 규칙을 설정합니다. DynamoDB 스트림을 사용하여 다른 애플리케이션과 트랜잭션 데이터를 공유합니다.
B. 트랜잭션 데이터를 Amazon Kinesis Data Firehose로 스트리밍하여 Amazon DynamoDB 및 Amazon S3에 데이터를 저장합니다. Kinesis Data Firehose와 AWS Lambda 통합을 사용하여 민감한 데이터를 제거하십시오. 다른 애플리케이션은 Amazon S3에 저장된 데이터를 사용할 수 있습니다.
C. 트랜잭션 데이터를 Amazon Kinesis Data Streams로 스트리밍합니다. AWS Lambda 통합을 사용하여 모든 트랜잭션에서 민감한 데이터를 제거한 다음 Amazon DynamoDB에 트랜잭션 데이터를 저장합니다. 다른 애플리케이션은 Kinesis 데이터 스트림의 트랜잭션 데이터를 사용할 수 있습니다.
D. 일괄 처리된 트랜잭션 데이터를 Amazon S3에 파일로 저장합니다. Amazon S3에서 파일을 업데이트하기 전에 AWS Lambda를 사용하여 모든 파일을 처리하고 민감한 데이터를 제거하십시오. 그러면 Lambda 함수가 Amazon DynamoDB에 데이터를 저장합니다. 다른 애플리케이션은 Amazon S3에 저장된 트랜잭션 파일을 사용할 수 있습니다.
Answer: C
Amazon Kinesis :
Kinesis Data Streams(KDS)는 확장성과 내구성이 뛰어난 실시간 데이터 스트리밍 서비스입니다.
KDS는 웹사이트 클릭 스트림, 데이터베이스 이벤트 스트림, 금융 거래, 소셜 미디어 피드, IT 로그 및 위치 추적 이벤트와 같은 수십만 개의 소스에서 초당 기가바이트의 데이터를 지속적으로 캡처할 수 있습니다
1.피크 시간에 수십만 명의 사용자에게 서비스 제공 = Kinesis 사용. B,C 둘 중 하나가 답.
2.B(X) : Kinesis Data Firehose는 데이터 변환 및 전송 서비스. 데이터 수집을 하려면 Kinesis Data Streams가 필요.
** firehose : 컴퓨터 통신망에서 흐름 제어(flow control) 메커니즘이 없거나 어떠한 문제가 발생하여 수신측에서 처리할 수 있는 것 보다 훨씬 많은 양의 패킷을 송신측에 보내는 현상.
Q34.회사는 AWS에서 다중 계층 애플리케이션을 호스팅합니다. 규정 준수, 거버넌스, 감사 및 보안을 위해 회사는 AWS 리소스의 구성 변경 사항을 추적하고 이러한 리소스에 대한 API 호출 기록을 기록해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A. AWS CloudTrail을 사용하여 구성 변경을 추적하고 AWS Config를 사용하여 API 호출을 기록하십시오.
B. AWS Config를 사용하여 구성 변경을 추적하고 AWS CloudTrail을 사용하여 API 호출을 기록합니다.
C. AWS Config를 사용하여 구성 변경을 추적하고 Amazon CloudWatch를 사용하여 API 호출을 기록합니다.
D. AWS CloudTrail을 사용하여 구성 변경을 추적하고 Amazon CloudWatch를 사용하여 API 호출을 기록합니다.
Answer: B
리소스 구성 사항 변경 추적 = AWS Config / 리소스 내역 기록 = CloudTrail
**Amazon CloudWatch-> 실시간모니터링!
Q35.한 회사가 AWS 클라우드에서 공개 웹 애플리케이션 출시를 준비하고 있습니다. 아키텍처는 Elastic Load Balancer(ELB) 뒤의 VPC 내 Amazon EC2 인스턴스로 구성됩니다. DNS에는 타사 서비스가 사용됩니다. 회사의 솔루션 설계자는 대규모 DDoS 공격을 감지하고 보호하기 위한 솔루션을 권장해야 합니다. ★
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. 계정에서 Amazon GuardDuty를 활성화합니다.
B. EC2 인스턴스에서 Amazon Inspector를 활성화합니다.
C. AWS Shield를 활성화하고 여기에 Amazon Route 53을 할당합니다.
D. AWS Shield Advanced를 활성화하고 ELB를 할당합니다.
Answer: D
GuardDuty | 서드 파티 통합 위협 인텔리전스와 기계 학습을 결합하여 AWS 계정, 워크로드 및 데이터를 위협으로부터 보호합니다. |
Amazon Inspector | 취약점 스캔 |
AWS Shield | 대규모 DDoS 방어는 AWS Shield Advanced가 더 적합. |
AWS Shield Advanced | AWS Shield Advanced는 정교한 대규모 DDoS 공격에 대한 추가 보호 및 완화, 실시간에 가까운 공격에 대한 가시성, 웹 애플리케이션 방화벽 AWS WAF와의 통합을 제공합니다. DDoS 관련 급증 시 Amazon Elastic Compute Cloud(EC2), Elastic Load Balancing(ELB), Amazon CloudFront, AWS Global Accelerator 및 Amazon Route 53 요금 보호를 제공합니다. |
Q36.회사는 AWS 클라우드에서 애플리케이션을 구축하고 있습니다. 애플리케이션은 두 AWS 리전의 Amazon S3 버킷에 데이터를 저장합니다. 회사는 AWS Key Management Service(AWS KMS) 고객 관리형 키를 사용하여 S3 버킷에 저장된 모든 데이터를 암호화해야 합니다. 두 S3 버킷의 데이터는 동일한 KMS 키로 암호화 및 복호화해야 합니다. 데이터와 키는 두 지역 각각에 저장되어야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. 각 리전에서 S3 버킷을 생성합니다. Amazon S3 관리형 암호화 키(SSE-S3)와 함께 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.
B. 고객 관리형 다중 지역 KMS 키를 생성합니다. 각 리전에서 S3 버킷을 생성합니다. S3 버킷 간의 복제를 구성합니다. 클라이언트 측 암호화와 함께 KMS 키를 사용하도록 애플리케이션을 구성합니다.
C. 각 리전에서 고객 관리형 KMS 키와 S3 버킷을 생성합니다. Amazon S3 관리형 암호화 키(SSE-S3)와 함께 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.
D.각 리전에서 고객 관리형 KMS 키와 S3 버킷을 생성합니다. AWS KMS 키(SSE-KMS)로 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.
Answer: B(O)
고객 관리형 다중 리전 KMS 키 생성. 각 리전에 S3 버킷 생성. S3 버킷 간 복제 설정. 클라이언트 측 암호화로 KMS키 사용하도록 애플리케이션 설정
** SSE-S3은 AWS에서 데이터 키와 마스터 키 모두 관리 0-> 고객관리형 키가아님
Q37.한 회사는 최근 AWS 계정의 Amazon EC2 인스턴스에서 다양한 새로운 워크로드를 출시했습니다. 회사는 인스턴스에 원격으로 안전하게 액세스하고 관리하는 전략을 수립해야 합니다. 회사는 기본 AWS 서비스와 함께 작동하고 AWS Well-Architected 프레임워크를 따르는 반복 가능한 프로세스를 구현해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★
A. EC2 직렬 콘솔을 사용하여 관리를 위해 각 인스턴스의 터미널 인터페이스에 직접 액세스합니다.
B. 각 기존 인스턴스와 새 인스턴스에 적절한 IAM 역할을 연결합니다. AWS Systems Manager Session Manager를 사용하여 원격 SSH 세션을 설정합니다.
C. 관리 SSH 키 쌍을 만듭니다. 퍼블릭 키를 각 EC2 인스턴스에 로드합니다. 퍼블릭 서브넷에 배스천 호스트를 배포하여 각 인스턴스의 관리를 위한 터널을 제공합니다.
D. AWS Site-to-Site VPN 연결을 설정합니다. 관리자에게 로컬 온프레미스 머신을 사용하여 VPN 터널에서 SSH 키를 사용하여 인스턴스에 직접 연결하도록 지시합니다
Answer: B
A(X) : 물리적으로 케이블 갖다 꽂는 것이기 때문에 원격 접속이 아님.
B(O) : 세션 관리자는 사용자 인스턴스에 SSH 키 또는 인증서를 유지하거나 인바운드 포트를 열도록 요구하지 않고 보안 태세를 강화합니다. 또한, AWS IAM을 사용하여 인스턴스 액세스를 중앙에서 관리합니다. 세션 관리자를 사용하면 Linux 또는 Windows EC2 인스턴스와 연결하여 각 인스턴스에서 세션을 시작한 각 사용자를 추적할 수 있습니다. 인스턴스에 액세스한 사용자와 AWS CloudTrail을 사용한 시점을 감사할 수 있으며, 인스턴스에서 실행된 각 명령을 Amazon S3 또는 Amazon CloudWatch Logs에 기록할 수 있습니다. 끝으로 Session Manager를 사용하면 배스쳔 호스트를 운영하고 관리하기 위한 초기 투자 비용이 들지 않습니다.
C(X) : SSH키 쌍이 필요하므로 B보다 운영 오버헤드가 많이 발생함.
D(X) : C와 동일한 이유로 오답.
Q38.회사는 Amazon S3에서 정적 웹 사이트를 호스팅하고 DNS에 Amazon Route 53을 사용하고 있습니다. 웹 사이트는 전 세계적으로 수요가 증가하고 있습니다. 회사는 웹 사이트에 액세스하는 사용자의 대기 시간을 줄여야 합니다.어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족합니까?
A. 웹 사이트가 포함된 S3 버킷을 모든 AWS 리전에 복제합니다. Route 53 지리적 위치 라우팅 항목을 추가합니다.
B. AWS Global Accelerator에서 액셀러레이터를 프로비저닝합니다. 제공된 IP 주소를 S3 버킷과 연결합니다. 액셀러레이터의 IP 주소를 가리키도록 Route 53 항목을 편집합니다.
C. S3 버킷 앞에 Amazon CloudFront 배포를 추가합니다. CloudFront 배포를 가리키도록 Route 53 항목을 편집합니다.
D. 버킷에서 S3 Transfer Acceleration을 활성화합니다. 새 엔드포인트를 가리키도록 Route 53 항목을 편집합니다.
Answer: C
A(X) : S3 버킷을 각 리전마다 복제하면 콘텐츠가 업로드될 때마다 각 리전의 버킷에 복제해야하므로 낭비임. CloudFront를 사용하는 것이 훨씬 더 효율적이고 경제적.
B(X) : AWS Global Accelerator는 TCP/UDP를 사용하는 네트워크 계층에서 동작하는데, 지문에서 사용된 Route 53은 DNS 서비스로서, 애플리케이션 계층에서 동작.
C(O) : Route 53으로 CloudFront 배포를 가리킬 수 있음.
S3를 사용해 정적 콘텐츠를 저장하면 다양한 이점이 있습니다. 하지만 비용을 효과적으로 관리하는 동시에 애플리케이션의 성능과 보안까지 최적화하려면 Amazon CloudFront를 설정해 S3 버킷과 함께 사용하면서 콘텐츠를 제공하고 보호하는 것이 좋습니다. CloudFront는 전 세계의 정적/동적 웹 콘텐츠, 비디오 스트림 및 API를 안전하게 대규모로 전송할 수 있는 콘텐츠 전송 네트워크(CDN) 서비스입니다. CloudFront에서 데이터를 전송하면 설계상 S3에서 직접 사용자에게 전송하는 것보다 더욱 비용 효율적입니다.
D(X) : S3 Transfer Acceleration은 각지에서 중앙 S3 버킷으로 업로드하는 서비스.
Q39.회사는 웹 사이트에서 검색 가능한 항목 저장소를 유지 관리합니다. 데이터는 천만 개 이상의 행이 포함된 Amazon RDS for MySQL 데이터베이스 테이블에 저장됩니다. 데이터베이스에는 2TB의 범용 SSD 스토리지가 있습니다. 회사 웹 사이트를 통해 이 데이터에 대한 수백만 건의 업데이트가 매일 있습니다.
이 회사는 일부 삽입 작업이 10초 이상 걸리는 것을 확인했습니다. 회사는 데이터베이스 스토리지 성능이 문제라고 판단했습니다.이 성능 문제를 해결하는 솔루션은 무엇입니까? ★
A. 스토리지 유형을 프로비저닝된 IOPS SSD로 변경합니다.
B. DB 인스턴스를 메모리 최적화 인스턴스 클래스로 변경합니다.
C. DB 인스턴스를 버스트 가능한 성능 인스턴스 클래스로 변경합니다.
D. MySQL 기본 비동기 복제로 다중 AZ RDS 읽기 전용 복제본을 활성화합니다.
Answer: A
프로비저닝된 IOPS 볼륨은 솔리드 스테이트 드라이브(SSD)로 지원되며 중요한 I/O 집약적인 데이터베이스 애플리케이션을 위해 설계된 최고 성능의 EBS 볼륨입니다.
이러한 볼륨은 극히 짧은 대기 시간이 필요한 IOPS 집약적 워크로드와 처리량 집약적 워크로드 모두에 이상적입니다.
'삽입' 작업이라고 했으므로 I/O 성능과 관련되어있음을 유추할 수 있음. 그리고 '저장소 성능'이 문제라고 판단했고, 범용 'SSD' 스토리지가 있다고 했으므로 A가 정답.
D(X) : 버스트 가능한 성능 인스턴스는 잠시 I/O 성능을 끌어올리는 것일 뿐 근본적인 I/O 성능 개선은 하지 못함.
Q40.회사에는 매일 1TB의 상태 알림을 집합적으로 생성하는 수천 개의 에지 장치가 있습니다. 각 경고의 크기는 약 2KB입니다. 솔루션 설계자는 향후 분석을 위해 경고를 수집하고 저장하는 솔루션을 구현해야 합니다.
회사는 고가용성 솔루션을 원합니다. 그러나 회사는 비용을 최소화해야 하며 추가 인프라 관리를 원하지 않습니다. 또한 회사는 즉각적인 분석을 위해 14일 동안의 데이터를 유지하고 14일이 지난 데이터를 보관하기를 원합니다.
이러한 요구 사항을 충족하는 가장 운영 효율성이 높은 솔루션은 무엇입니까? ★
A. Amazon Kinesis Data Firehose 전송 스트림을 생성하여 알림을 수집합니다. Amazon S3 버킷에 알림을 전달하도록 Kinesis Data Firehose 스트림을 구성합니다. 14일 후에 데이터를 Amazon S3 Glacier로 전환하도록 S3 수명 주기 구성을 설정합니다.
B. 두 가용 영역에서 Amazon EC2 인스턴스를 시작하고 Elastic Load Balancer 뒤에 배치하여 알림을 수집합니다. Amazon S3 버킷에 경고를 저장할 EC2 인스턴스에 대한 스크립트를 생성합니다. 14일 후에 데이터를 Amazon S3 Glacier로 전환하도록 S3 수명 주기 구성을 설정합니다.
C. Amazon Kinesis Data Firehose 전송 스트림을 생성하여 알림을 수집합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service) 클러스터에 알림을 전달하도록 Kinesis Data Firehose 스트림을 구성합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service) 클러스터를 설정하여 매일 수동 스냅샷을 만들고 클러스터에서 14일이 지난 데이터를 삭제합니다.
D. Amazon Simple Queue Service(Amazon SQS)
표준 대기열을 생성하여 알림을 수집하고 메시지 보존 기간을 14일로 설정합니다. SQS 대기열을 폴링하고, 메시지의 수명을 확인하고, 필요에 따라 메시지 데이터를 분석하도록 소비자를 구성합니다. 메시지가 14일이 지난 경우 소비자는 메시지를 Amazon S3 버킷에 복사하고 SQS 대기열에서 메시지를 삭제해야합니다.
Answer: A
수 천 개의 Edge 장치로부터 경고 수집 및 저장 = Kinesis. A,C 둘 중 하나가 답.
Kinesis Firehose Delivery Stream에서 데이터 수집
다양한 유형의 소스를 사용하여 Kinesis Data Firehose 전송 스트림으로 데이터를 보낼 수있음
Kinesis Firehose에서 S3로 데이터 전송
Kinesis Data Firehose 전송 스트림을 설정할 때 데이터의 최종 대상을 선택합니다. 대상 옵션은 Amazon Simple Storage Service(Amazon S3), Amazon OpenSearch Service 및 Amazon Redshift입니다.
S3에서 Life Cycle Policy를 사용해 S3 Glacier로 객체 이전
수명 주기 규칙을 사용하여 객체 수명 주기 동안 Amazon S3에서 수행하려는 작업을 정의할 수 있습니다(예: 객체를 다른 스토리지 클래스로 이전, 객체 보관, 지정된 기간이 경과한 후 객체 삭제).
C(X) : 14일이 지난 데이터를 보관하길 원한다고 했는데 삭제해버리므로 오답.
Q41.회사의 애플리케이션은 데이터 수집을 위해 여러 SaaS(Software-as-a-Service) 소스와 통합됩니다. 이 회사는 Amazon EC2 인스턴스를 실행하여 데이터를 수신하고 분석을 위해 데이터를 Amazon S3 버킷에 업로드합니다. 데이터를 수신하고 업로드하는 동일한 EC2 인스턴스도 업로드가 완료되면 사용자에게 알림을 보냅니다. 회사는 느린 응용 프로그램 성능을 발견했으며 가능한 한 성능을 개선하려고 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★
A. EC2 인스턴스가 확장할 수 있도록 Auto Scaling 그룹을 생성합니다. S3 버킷에 업로드가 완료되면 Amazon Simple Notification Service(Amazon SNS) 주제에 이벤트를 보내도록 S3 이벤트 알림을 구성합니다.
B. Amazon AppFlow 흐름을 생성하여 각 SaaS 소스와 S3 버킷 간에 데이터를 전송합니다. S3 버킷에 업로드가 완료되면 Amazon Simple Notification Service(Amazon SNS) 주제에 이벤트를 보내도록 S3 이벤트 알림을 구성합니다.
C. 각 SaaS 소스에 대해 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성하여 출력 데이터를 보냅니다. S3 버킷을 규칙의 대상으로 구성합니다. S3 버킷에 업로드가 완료되면 이벤트를 전송하는 두 번째 EventBridge(Cloud Watch Events) 규칙을 생성합니다. Amazon Simple Notification Service(Amazon SNS) 주제를 두 번째 규칙의 대상으로 구성합니다.
D. EC2인스턴스 대신 사용할 Docker 컨테이너를 생성합니다. Amazon Elastic Container Service(Amazon ECS)에서 컨테이너화된 애플리케이션을 호스팅합니다. S3 버킷에 업로드가 완료되면 Amazon Simple Notification Service(Amazon SNS) 주제에 이벤트를 보내도록
Answer: B
SAAS 서비스와 테이터 이동은 : APPFLOW
Amazon AppFlow는 Salesforce, SAP, Zendesk, Slack 및 ServiceNow와 같은 SaaS(Software-as-a-Service) 애플리케이션과 Amazon S3 및 Amazon Redshift와 같은 AWS 서비스 간에 데이터를 안전하게 전송할 수 있는 완전 관리형 통합 서비스입니다. 클릭 몇 번이면 됩니다.
SaaS = Appflow. Appflow는 완전 관리형 통합 서비스이기 때문에 운영 오버헤드가 적음.
Amazon AppFlow는 클릭 몇 번으로 Salesforce, Marketo, Slack 및 ServiceNow와 같은 SaaS(Software-as-a-Service) 애플리케이션과 Amazon S3 및 Amazon Redshift와 같은 AWS 서비스 간에 데이터를 안전하게 전송할 수 있게 해 주는 완전관리형 통합 서비스.
Q42.회사는 단일 VPC의 Amazon EC2 인스턴스에서 고가용성 이미지 처리 애플리케이션을 실행합니다. EC2 인스턴스는 여러 가용 영역의 여러 서브넷 내에서 실행됩니다. EC2 인스턴스는 서로 통신하지 않습니다. 그러나 EC2 인스턴스는 Amazon S3에서 이미지를 다운로드하고 단일 NAT 게이트웨이를 통해 Amazon S3에 이미지를 업로드합니다. 회사는 데이터 전송 요금에 대해 우려하고 있습니다. ★
회사가 지역 데이터 전송 요금을 피할 수 있는 가장 비용 효율적인 방법은 무엇입니까?
A. 각 가용 영역에서 NAT 게이트웨이를 시작합니다.
B. NAT 게이트웨이를 NAT 인스턴스로 교체합니다.
C. Amazon S3용 게이트웨이 VPC 엔드포인트를 배포합니다.
D. EC2 인스턴스를 실행할 EC2 전용 호스트를 프로비저닝합니다.
Answer: C
데이터 전송 요금이 걱정되니 전용 전송 통로를 뚫으면 됨. VPC-S3 간 전용 통로는 S3 VPC Gateway Endpoint.
S3용 게이트웨이 VPC 엔드포인트를 배포함으로써 회사는 인터넷 게이트웨이나 NAT 게이트웨이를 거치지 않고 VPC와 S3 사이에 직접 연결을 설정할 수 있습니다. 이렇게 하면 EC2와 S3 사이의 트래픽이 Amazon 네트워크 내에 머물면서 지역 데이터 전송 요금을 피할 수 있습니다.
Q43.회사에 Amazon S3에 백업되는 시간에 민감한 대량의 데이터를 생성하는 온프레미스 애플리케이션이 있습니다. 애플리케이션이 성장했고 인터넷 대역폭 제한에 대한 사용자 불만이 있습니다. 솔루션 설계자는 Amazon S3에 대한 적시 백업을 허용하고 내부 사용자의 인터넷 연결에 미치는 영향을 최소화하는 장기 솔루션을 설계해야 합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. AWS VPN 연결을 설정하고 VPC 게이트웨이 엔드포인트를 통해 모든 트래픽을 프록시합니다.
B. 새 AWS Direct Connect 연결을 설정하고 이 새 연결을 통해 백업 트래픽을 직접 연결합니다.
C. 매일 AWS Snowball 디바이스를 주문합니다. Snowball 디바이스에 데이터를 로드하고 디바이스를 매일 AWS로 반환합니다.
D. AWS Management 콘솔을 통해 지원 티켓을 제출합니다. 계정에서 S3 서비스 제한 제거를 요청합니다.
Answer: B
A(X) : VPN은 인터넷을 통과하는데다가, VPC Gateway Endpoint는 VPC-S3,Dynamo간 전송을 담당.
B(O) : Direct Connect는 AWS와 온프레미스 네트워크를 연결하여 성능의 저하없이 여러환경에 걸친 애플리케이션 구축 전용선을 통과하기 때문에 인터넷에 전송중인 데이터가 노출되지 않음 -> 민감한 데이터에 적합
C(X) : Snowball Device는 배송기간까지 합하면 보통 7일 정도 걸리는데 이를 매일 주문한다는 것은 무리수.
D(X) : 한도 증가만 가능. 한도 제거 옵션은 없음.
Q44.회사에 중요한 데이터가 포함된 Amazon S3 버킷이 있습니다. 회사는 우발적인 삭제로부터 데이터를 보호해야 합니다.이러한 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 단계 조합을 취해야 합니까? (2개를 선택하세요.)
A. S3 버킷에서 버전 관리를 활성화합니다.
B. S3 버킷에서 MFA 삭제를 활성화합니다.
C. S3 버킷에 버킷 정책을 생성합니다.
D. S3 버킷에서 기본 암호화를 활성화합니다.
E. S3 버킷의 객체에 대한 수명 주기 정책을 생성합니다.
Answer: A,B
A(O) : 버전 관리는 실수로 삭제했을 때 이전 버전의 파일을 불러올 수 있도록 해줌.
Amazon S3의 버전 관리는 동일 버킷 내에 여러 개의 객체 변형을 보유하는 수단입니다. S3 버전 관리를 사용하면 버킷에 저장된 모든 버전의 객체를 모두 보존, 검색 및 복원할 수 있습니다.
https://docs.aws.amazon.com/ko_kr/AmazonS3/latest/userguide/Versioning.html
B(O) : MFA Delete는 함부로 삭제하지 못하도록 막음.
MFA Delete는 다음 작업에 대해 추가 인증을 요구합니다. ◎버킷의 버전 관리 상태 변경 ◎객체 버전 영구 삭제
C(X) : 버킷 정책은 액세스 권한에 관련된 것. 버킷 정책은 버킷과 해당 버킷의 객체에 대한 액세스 권한을 부여할 수 있는 리소스 기반 정책입니다.
D(X) : 암호화는 파일 내용을 함부로 볼 수 없게하는 등의 기능은 있지만 기본적으로 삭제는 막지 못함. 우리가 직장에서 DRM 걸린 문서는 열람 못해도 액세스 권한이 있다면 삭제할 수 있는 거랑 비슷함.
E(X) : 객체 수명 주기 정책은 객체를 언제 이동하고 삭제할 거냐의 문제.
Q45.회사에는 다음으로 구성된 데이터 수집 워크플로가 있습니다.
• 새로운 데이터 전송에 대한 알림을 위한 Amazon Simple Notification Service(Amazon SNS) 주제
• 데이터를 처리하고 메타데이터를 기록하는 AWS Lambda 함수
회사는 네트워크 연결 문제로 인해 수집 워크플로가 때때로 실패하는 것을 관찰했습니다. 이러한 장애가 발생하면 회사에서 수동으로 작업을 다시 실행하지 않는 한 Lambda 함수는 해당 데이터를 수집하지 않습니다.
Lambda 함수가 향후 모든 데이터를 수집하도록 하려면 솔루션 설계자가 취해야 하는 작업 조합은 무엇입니까? (2개를 선택하세요.)
A. 여러 가용 영역에 Lambda 함수를 배포합니다.
B. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성하고 SNS 주제를 구독합니다.
C. Lambda 함수에 할당된 CPU와 메모리를 늘립니다.
D. Lambda 함수에 대해 프로비저닝된 처리량을 늘립니다.
E. Amazon Simple Queue Service(Amazon SQS)
대기열에서 읽도록 Lambda 함수를 수정합니다.
Answer: B, E
간헐적인 네트워크 연결 문제에도 불구하고 Lambda 함수가 향후 모든 데이터를 수집하도록 하려면 다음 조치를 취해야 합니다.
Amazon Simple Queue Service(SQS) 대기열을 생성하고 SNS 주제를 구독합니다. 이를 통해 알림과 처리를 분리할 수 있으므로 처리 Lambda 함수가 실패하더라도 나중에 추가 처리를 위해 메시지가 대기열에 남아 있습니다.
SNS에서 직접 읽지 않고 SQS 대기열에서 읽도록 Lambda 함수를 수정합니다. 이 분리는 재시도 및 내결함성을 허용하고 모든 메시지가 Lambda 함수에 의해 처리되도록 합니다.
Q46.회사에 매장에 마케팅 서비스를 제공하는 애플리케이션이 있습니다. 서비스는 매장 고객의 이전 구매를 기반으로 합니다. 상점은 SFTP를 통해 거래 데이터를 회사에 업로드하고 데이터를 처리 및 분석하여 새로운 마케팅 제안을 생성합니다. 일부 파일의 크기는 200GB를 초과할 수 있습니다.최근에 회사는 일부 상점에서 포함되어서는 안 되는 개인 식별 정보(PII)가 포함된 파일을 업로드했음을 발견했습니다. 회사는 PII가 다시 공유될 경우 관리자에게 경고를 주기를 원합니다. 회사는 또한 문제 해결을 자동화하기를 원합니다.
최소한의 개발 노력으로 이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 해야 합니까? ★
A. Amazon S3 버킷을 보안 전송 지점으로 사용하십시오. Amazon Inspector를 사용하여 버킷의 객체를 스캔합니다. 객체에 PII가 포함된 경우 S3 수명 주기 정책을 트리거하여 PII가 포함된 객체를 제거합니다.
B. Amazon S3 버킷을 보안 전송 지점으로 사용합니다. Amazon Macie를 사용하여 버킷의 객체를 스캔합니다. 객체에 PII가 포함된 경우 Amazon Simple Notification Service(Amazon SNS)를 사용하여 관리자에게 PII가 포함된 객체를 제거하라는 알림을 트리거합니다.
C. AWS Lambda 함수에서 사용자 지정 스캔 알고리즘을 구현합니다. 객체가 버킷에 로드될 때 함수를 트리거합니다. 객체에 PII가 포함된 경우 Amazon Simple Notification Service(Amazon SNS)를 사용하여 관리자에게 PII가 포함된 객체를 제거하라는 알림을 트리거합니다.
D. AWS Lambda 함수에서 사용자 지정 스캔 알고리즘을 구현합니다. 객체가 버킷에 로드될 때 함수를 트리거합니다. 객체에 PII가 포함된 경우 Amazon Simple Email Service(Amazon SES)를 사용하여 관리자에게 알림을 트리거하고 S3 수명 주기 정책을 트리거하여 PII가 포함된 고기를 제거합니다.
Amazon Macie는 AWS에서 PII와 같은 민감한 데이터를 자동으로 검색, 분류 및 보호하는 관리형 서비스입니다. S3에서 Macie를 활성화하면 업로드된 객체에서 PII를 검색할 수 있습니다.
개인정보 = Macie. 정답은 B.
Q47.회사는 1주일 동안 진행될 예정된 이벤트를 위해 특정 AWS 리전의 3개의 특정 가용 영역에서 보장된 Amazon EC2 용량이 필요합니다.EC2 용량을 보장하기 위해 회사는 무엇을 해야 합니까?
A. 필요한 리전을 지정하는 예약 인스턴스를 구매합니다.
B. 필요한 지역을 지정하는 온디맨드 용량 예약을 생성합니다.
C. 필요한 리전과 3개의 가용 영역을 지정하는 예약 인스턴스를 구매합니다.
D.필요한 지역과 3개의 가용 영역을 지정하는 온디맨드 용량 예약을 생성합니다
Answer:D
예약은 1년 또는 3년 지불해야함으로 A , C 제외
AWS 리전의 3개의 특정 가용 영역에서 보장된 Amazon EC2 용량이 필요하다 했으므로3개의 가용영역 지정필요
Q48.회사 웹 사이트는 항목 카탈로그에 Amazon EC2 인스턴스 스토어를 사용합니다. 회사는 카탈로그의 가용성이 높고 카탈로그가 내구성 있는 위치에 저장되기를 원합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까? ★
A. 카탈로그를 Redis용 Amazon ElastiCache로 이동합니다.
B. 더 큰 인스턴스 스토어로 더 큰 EC2 인스턴스를 배포합니다.
C. 인스턴스 스토어에서 Amazon S3 Glacier Deep Archive로 카탈로그를 이동합니다.
D. 카탈로그를 Amazon Elastic File System(Amazon EFS) 파일 시스템으로 이동합니다.
Answer:D
A(X) : ElastiCache는 캐시 서비스.
B(X) : 인스턴스 스토어는 휘발성 스토리지. 내구성 불충족.
C(X) : Amazon S3 Glacier Deep Archive는 콜드 스토리지. 가용성 불충족.
D(O) : 정답.
카탈로그를 Amazon Elastic File System(Amazon EFS) 파일 시스템으로 이동하면 고가용성과 내구성이 모두 제공됩니다. Amazon EFS는 필요에 따라 확장할 수 있도록 구축된 완전 관리형, 가용성 및 내구성이 뛰어난 파일 시스템입니다. Amazon EFS를 사용하면 다양한 가용 영역에 있는 여러 EC2 인스턴스에서 카탈로그 데이터를 저장하고 액세스할 수 있으므로 고가용성이 보장됩니다. 또한 Amazon EFS는 여러 가용 영역 내에서 파일을 자동으로 중복 저장하므로 내구성 있는 스토리지 옵션이 됩니다.
Q49.회사는 매월 통화 기록 파일을 저장합니다. 사용자는 통화 후 1년 이내에 파일에 무작위로 액세스하지만 1년 이후에는 파일에 자주 액세스하지 않습니다. 이 회사는 사용자에게 1년 미만의 파일을 가능한 한 빨리 쿼리하고 검색할 수 있는 기능을 제공하여 솔루션을 최적화하려고 합니다. 오래된 파일을 검색하는 데 있어 지연은 허용됩니다.
어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족합니까? ★★
A. Amazon S3 Glacier Instant Retrieval에 태그가 있는 개별 파일을 저장합니다. 태그를 쿼리하여 S3 Glacier Instant Retrieval에서 파일을 검색합니다.
B. Amazon S3 Intelligent-Tiering에 개별 파일을 저장합니다. S3 수명 주기 정책을 사용하여 1년 후 파일을 S3 Glacier Flexible Retrieval로 이동합니다. Amazon Athena를 사용하여 Amazon S3에 있는 파일을 쿼리하고 검색합니다. S3 Glacier Select를 사용하여 S3 Glacier에 있는 파일을 쿼리하고 검색합니다.
C. Amazon S3 Standard 스토리지에 태그가 있는 개별 파일을 저장합니다. Amazon S3 Standard 스토리지의 각 아카이브에 대한 검색 메타데이터를 저장합니다. S3 수명 주기 정책을 사용하여 1년 후에 파일을 S3 Glacier Instant Retrieval로 이동합니다. Amazon S3에서 메타데이터를 검색하여 파일을 쿼리하고 검색합니다.
D. Amazon S3 Standard 스토리지에 개별 파일을 저장합니다. S3 수명 주기 정책을 사용하여 1년 후에 파일을 S3 Glacier Deep Archive로 이동합니다. Amazon RDS에 검색 메타데이터를 저장합니다. Amazon RDS에서 파일을 쿼리합니다. S3 Glacier Deep Archive에서 파일을 검색합니다.
Answer: B
의료 이미지, 뉴스 미디어 자산 또는 유전체학 데이터와 같이 즉각적인 액세스가 필요한 아카이브 데이터의 경우 S3 Glacier Instant Retrieve 스토리지 클래스를 선택하십시오. S3 Glacier Instant Retrieve 스토리지 클래스는 밀리초 검색으로 최저 비용의 스토리지를 제공합니다.
즉각적인 액세스가 필요하지는 않지만 백업 또는 재해 복구 사용 사례와 같이 비용 없이 대용량 데이터 세트를 검색할 수 있는 유연성이 필요한 아카이브 데이터의 경우 S3 Glacier Flexible Retrieve(이전의 S3 Glacier)를 선택하고, 몇 분 내에 검색하거나 5-12시간 내에 대량 검색을 무료로 제공합니다.
Users access the files randomly S3 Intelligent-Tiering is the ideal storage class for data with unknown, changing, or unpredictable access patterns, independent of object size or retention period. You can use S3 Intelligent-Tiering as the default storage class for virtually any workload, especially data lakes, data analytics, new applications, and user-generated content.
Q50.회사에 1,000개의 Amazon EC2 Linux 인스턴스에서 실행되는 프로덕션 워크로드가 있습니다. 워크로드는 타사 소프트웨어에 의해 구동됩니다. 회사는 중요한 보안 취약성을 수정하기 위해 가능한 한 빨리 모든 EC2 인스턴스에서 타사 소프트웨어를 패치해야 합니다.솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
★
A. AWS Lambda 함수를 생성하여 모든 EC2 인스턴스에 패치를 적용합니다.
B. 모든 EC2 인스턴스에 패치를 적용하도록 AWS Systems Manager Patch Manager를 구성합니다.
C. AWS Systems Manager 유지 관리 기간을 예약하여 모든 EC2 인스턴스에 패치를 적용합니다.
D. AWS Systems Manager Run Command를 사용하여 모든 EC2 인스턴스에 패치를 적용하는 사용자 지정 명령을 실행합니다.
Answer: D
A(X) : 1000개의 인스턴스에 일일이 다 Lambda로 패치 적용한다는 것은 비효율적이고 번거로움
B(X) : 자동 업데이트에는 시간이 좀 걸림. ""패치 관리자는 승인 및 거부된 패치 목록과 함께 릴리스 후 며칠 이내에 패치를 자동 승인하기 위한 규칙을 포함 하는 패치 기준선 을 사용합니다.
C(X) : 가능한 빨리 패치해야한다고 했는데 예약을 하고 있어서 안 됨.
D(O) : 리소스 그룹을 통해 한 번에 여러 인스턴스를 업데이트 가능. 리소스 그룹이 명령 대상으로 지원됨에 따라 해당 리소스 그룹에 속한 모든 관리형 인스턴스에서 관리 및 임시 작업을 자동화할 수 있습니다.
AWS Systems Manager Run Command = 한번에 솔루션 패치적용
'AWS' 카테고리의 다른 글
[AWS] AWS Gateway (0) | 2024.06.25 |
---|---|
[AWS] AWS Lambda (0) | 2024.06.25 |
[AWS]CLF -C02 DUMP 로 공부하자 40~44 (1) | 2024.06.13 |
[AWS]CLF -C02 DUMP 로 공부하자 35~39 (0) | 2024.06.07 |
[AWS]CLF -C02 DUMP 로 공부하자 30~34 (0) | 2024.06.07 |