본문 바로가기

AWS/자격증

[AWS] SAA -C03 DUMP 로 공부하자 2(51~100)

Q51.회사는 REST API로 검색하기 위해 주문 배송 통계를 제공하는 애플리케이션을 개발 중입니다. 이 회사는 배송 통계를 추출하고 데이터를 읽기 쉬운 HTML 형식으로 구성하고 매일 아침 여러 이메일 주소로 보고서를 보내려고 합니다.이러한 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 단계 조합을 취해야 합니까? (2개를 선택하세요.)★
A. 데이터를 Amazon Kinesis Data Firehose로 보내도록 애플리케이션을 구성합니다.
B. Amazon Simple Email Service(Amazon SES)를 사용하여 데이터 형식을 지정하고 보고서를 이메일로 보냅니다.
C. AWS Glue 작업을 호출하여 데이터에 대한 애플리케이션의 API를 쿼리하는 Amazon EventBridge(Amazon CloudWatch Events) 예약 이벤트를 생성합니다.
D. AWS Lambda 함수를 호출하여 데이터에 대한 애플리케이션의 API를 쿼리하는 Amazon EventBridge(Amazon CloudWatch Events) 예약 이벤트를 생성합니다.
E. Amazon S3에 애플리케이션 데이터를 저장합니다. 보고서를 이메일로 보낼 S3 이벤트 대상으로 Amazon Simple Notification Service(Amazon SNS) 주제를 생성합니다.
더보기

Answer: B,D

1. 데이터에 대한 애플리케이션의 API를 쿼리하기 위해 AWS Lambda 함수를 호출하는 Amazon EventBridge(Amazon CloudWatch Events) 예약 이벤트를 생성합니다. 이 단계는 AWS Lambda를 사용하여 배송 통계를 추출하고 데이터를 HTML 형식으로 구성할 수 있습니다.

2. Amazon Simple Email Service(Amazon SES)를 사용하여 데이터 형식을 지정하고 이메일로 보고서를 보냅니다.

이 단계는 Amazon SES를 사용하여 매일 아침 동시에 여러 이메일 주소로 보고서를 전송함으로써 수행할 수 있습니다.

A(X) : Kinesis Data Firehose가 이 사용 사례에 필요하지 않기 때문에 옵션 A는 올바르지 않습니다

C(X) : GLue  기계어학습, 머신러닝 불필요 

E(X)이메일 전송 이라서 SNS  불필요

Q52.회사에서 온프레미스 애플리케이션을 AWS로 마이그레이션하려고 합니다. 애플리케이션은 수십 기가바이트에서 수백 테라바이트까지 다양한 크기의 출력 파일을 생성합니다. 애플리케이션 데이터는 표준 파일 시스템 구조로 저장되어야 합니다. 회사는 자동으로 확장되는 솔루션을 원합니다. 고가용성이며 최소한의 운영 오버헤드가 필요합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. Amazon Elastic Container Service(Amazon ECS)에서 컨테이너로 실행되도록 애플리케이션을 마이그레이션합니다. 스토리지에 Amazon S3를 사용합니다.
B. Amazon Elastic Kubernetes Service(Amazon EKS)에서 컨테이너로 실행되도록 애플리케이션을 마이그레이션합니다. 스토리지에 Amazon Elastic Block Store(Amazon EBS)를 사용합니다.
C. 다중 AZ Auto Scaling 그룹의 Amazon EC2 인스턴스로 애플리케이션을 마이그레이션합니다. 스토리지에 Amazon Elastic File System(Amazon EFS)을 사용합니다.
D.다중 AZ Auto Scaling 그룹의 Amazon EC2 인스턴스로 애플리케이션을 마이그레이션합니다. 스토리지에 Amazon Elastic Block Store(Amazon EBS)를 사용합니다
더보기

Answer: C

고가용성이므로 Auto Scaling 들어간 C,D 하나가 정답. EFS vs EBS 비교해보면 보통은 EFS 정답인 경우가 많음. 일단 EBS 여러 EC2 인스턴스에서 동시 접속할 없다는 단점 치명적이기 때문.

Q53.회사는 Amazon S3에 회계 기록을 저장해야 합니다. 기록은 1년 동안 즉시 액세스할 수 있어야 하며 그 후 추가로 9년 동안 보관해야 합니다. 관리자 및 루트 사용자를 포함하여 회사의 그 누구도 전체 10년 동안 기록을 삭제할 수 없습니다. 기록은 최대한의 복원력으로 저장해야 합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까? ★
A. 전체 10년 동안 S3 Glacier에 기록을 저장합니다. 접근통제 정책을 사용하여 10년 동안 기록 삭제를 거부합니다.
B. S3 Intelligent-Tiering을 사용하여 레코드를 저장합니다. IAM 정책을 사용하여 레코드 삭제를 거부합니다. 10년 후 삭제를 허용하도록 IAM 정책을 변경합니다.
C. S3 수명 주기 정책을 사용하여 1년 후에 S3 Standard에서 S3 Glacier Deep Archive로 레코드를 전환합니다. 10년 동안 규정 준수 모드에서 S3 Object Lock을 사용합니다.
D. S3수명 주기 정책을 사용하여 1년 후 레코드를 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환합니다. 10년 동안 거버넌스 모드에서 S3
Object Lock을 사용합니다.
더보기

Answer: C

A(X) : 1년 동안 즉시 액세스할 수 있어야 한다고 했으므로 액세스 시간이 1분 이상 걸리는 S3 Glacier는 오답.

B(X) : 특정 기간동안 즉시 액세스할 수 있어야 하므로 Intelligent Tiering이 아니라 Life Cycle Policy가 적합.

C(O) : S3 Standard = 즉시 액세스 가능 / S3 Glacier Deep Archive = 콜드 스토리지. 보관용으로 사용됨. Object Lock으로 객체 삭제 방지.

S3 객체 잠금을 사용하면 write-once-read-many(WORM) 모델을 사용하여 객체를 저장할 수 있습니다. 객체 잠금은 고정된 시간 동안 또는 무기한으로 객체의 삭제 또는 덮어쓰기를 방지하는 데 도움이 될 수 있습니다.

D(X) : 기록은 최대한의 복원력으로 저장해야한다고 했으므로 One Zone-IA는 적합하지 않음.

Q54.회사는 AWS에서 여러 Windows 워크로드를 실행합니다. 회사 직원은 두 개의 Amazon EC2 인스턴스에서 호스팅되는 Windows 파일 공유를 사용합니다. 파일 공유는 서로 간에 데이터를 동기화하고 중복 복사본을 유지합니다. 이 회사는 사용자가 현재 파일에 액세스하는 방식을 보존하는 고가용성 및 내구성 스토리지 솔루션을 원합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A. 모든 데이터를 Amazon S3로 마이그레이션합니다. 사용자가 파일에 액세스할 수 있도록 IAM 인증을 설정합니다.
B. Amazon S3 파일 게이트웨이를 설정합니다. 기존 EC2 인스턴스에 S3 파일 게이트웨이를 탑재합니다.
C. 다중 AZ 구성을 사용하여 파일 공유 환경을 Windows 파일 서버용 Amazon FSx로 확장합니다. 모든 데이터를 Windows 파일 서버용 FSx로 마이그레이션합니다.
D. 다중 AZ 구성을 사용하여 파일 공유 환경을 Amazon Elastic File System(Amazon EFS)으로 확장합니다. 모든 데이터를 Amazon EFS로 마이그레이션합니다.
더보기

Answer: C

window 파일공유 :  Amazon FSx

Amazon FSx for Windows File Server는 완전히 네이티브로 지원되는 완전히 관리되는 Microsoft Windows 파일 서버를 제공합니다.

Q55.솔루션 설계자는 여러 서브넷을 포함하는 VPC 아키텍처를 개발 중입니다. 아키텍처는 Amazon EC2 인스턴스 및 Amazon RDS DB 인스턴스를 사용하는 애플리케이션을 호스팅합니다. 아키텍처는 2개의 가용 영역에 있는 6개의 서브넷으로 구성됩니다. 각 가용 영역에는 퍼블릭 서브넷, 프라이빗 서브넷 및 데이터베이스용 전용 서브넷이 포함됩니다. 프라이빗 서브넷에서 실행되는 EC2 인스턴스만 RDS 데이터베이스에 액세스할 수 있습니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까? ★
A. 퍼블릭 서브넷의 CIDR 블록에 대한 경로를 제외하는 새 라우팅 테이블을 생성합니다. 라우팅 테이블을 데이터베이스 서브넷과 연결합니다.
B. 퍼블릭 서브넷의 인스턴스에 할당된 보안 그룹의 인바운드 트래픽을 거부하는 보안 그룹을 생성합니다. 보안 그룹을 DB 인스턴스에 연결합니다.
C. 프라이빗 서브넷의 인스턴스에 할당된 보안 그룹의 인바운드 트래픽을 허용하는 보안 그룹을 생성합니다. 보안 그룹을 DB 인스턴스에 연결합니다.
D. 퍼블릭 서브넷과 프라이빗 서브넷 사이에 새로운 피어링 연결을 생성합니다. 프라이빗 서브넷과 데이터베이스 서브넷 간에 다른 피어링 연결을 만듭니다.
더보기

Answer: C

프라이빗 서브넷의 인스턴스에 할당된 보안 그룹의 인바운드 트래픽을 허용하는 보안 그룹을 생성하면 프라이빗 서브넷에서 실행되는 EC2 RDS 데이터베이스에 액세스할 수 있습니다. 보안 그룹을 DB와 연결하여 지정된 보안 그룹에 속한 인스턴스로만 접근을 제한합니다.

Q56.회사는 Amazon Route 53에 도메인 이름을 등록했습니다. 이 회사는 ca-central-1 리전의 Amazon API Gateway를 백엔드 마이크로서비스 API의 공용 인터페이스로 사용합니다. 타사 서비스는 API를 안전하게 사용합니다. 회사는 타사 서비스에서 HTTPS를 사용할 수 있도록 회사의 도메인 이름 및 해당 인증서로 API 게이트웨이 URL을 설계하려고 합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. API Gateway에서 Name="Endpoint-URL" 및 Value="Company Domain Name"으로 단계 변수를 생성하여 기본 URL을 덮어씁니다. 회사의 도메인 이름과 연결된 공인 인증서를 AWS Certificate Manager(ACM)로 가져옵니다.
B. 회사의 도메인 이름으로 Route 53 DNS 레코드를 생성합니다. 별칭 레코드가 리전 API 게이트웨이 단계 엔드포인트를 가리키도록 합니다. 회사의 도메인 이름과 연결된 공인 인증서를 us-east-1 리전의 AWS Certificate Manager(ACM)로 가져옵니다.
C. 리전 API 게이트웨이 엔드포인트를 생성합니다. API Gateway 엔드포인트를 회사의 도메인 이름과 연결합니다. 회사의 도메인 이름과 연결된 공인 인증서를 동일한 리전의 AWS Certificate Manager(ACM)로 가져옵니다. API Gateway 엔드포인트에 인증서를 연결합니다. API Gateway 엔드포인트로 트래픽을 라우팅하도록 Route 53을 구성합니다.
D.리전 API 게이트웨이 엔드포인트를 생성합니다. API Gateway 엔드포인트를 회사의 도메인 이름과 연결합니다. 회사의 도메인 이름과 연결된 공인 인증서를 us-east-1 리전의 AWS Certificate Manager(ACM)로 가져옵니다. API Gateway API에 인증서를 연결합니다. 회사의 도메인 이름으로 Route 53 DNS 레코드를 생성합니다. A 레코드가 회사의 도메인이름으로 Route 53 DNS 레코드를 생성합니다. A 레코드가 회사의 도메인 이름을 가리키도록 합니다.
더보기

Answer: C

리전 사용자 지정 도메인 이름은 API 동일한 AWS 리전( ca-central-1  ) 있는 SSL/TLS 인증서를 사용해야 합니다.>  b,d제외됨

1. 리전 API 게이트웨이 엔드포인트 생성 회사 도메인 이름과 연결

또한 API Gateway REST API, Amazon CLI 또는 Amazon SDK 하나를 호출하여 사용자 지정 도메인 이름을 호스트 이름으로 사용하여 API 기본 경로 매핑을 설정할 있습니다.

2. 회사 도메인 이름과 연결된 공인 인증서를 동일 리전의 ACM으로 가져옴(https)

API Gateway 리전 사용자 지정 도메인 이름의 경우 API 동일한 리전에서 인증서를 요청하거나 가져와야 합니다......도메인 이름에 대한 인증서를 ACM으로 가져오려면....

3. API 게이트웨이 엔드포인트에 인증서 연결

ACM 인증서로 리전 사용자 지정 도메인 이름을 생성(또는 마이그레이션)하면 API Gateway 해당 계정에 서비스 연결 역할을 생성합니다( 역할이 아직 없는 경우). 서비스 연결 역할은 ACM 인증서를 해당 리전 엔드포인트에 연결하는 필요합니다.

4. API 게이트웨이 엔드포인트로 트래픽 라우팅 하도록 Route 53 설정

Q57.한 회사에서 인기 있는 소셜 미디어 웹사이트를 운영하고 있습니다. 웹사이트는 사용자에게 이미지를 업로드하여 다른 사용자와 공유할 수 있는 기능을 제공합니다. 회사는 이미지에 부적절한 콘텐츠가 포함되지 않았는지 확인하고 싶습니다. 회사는 개발 노력을 최소화하는 솔루션이 필요합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까? ★
A. Amazon Comprehend를 사용하여 부적절한 콘텐츠를 감지합니다. 신뢰도가 낮은 예측에는 인적 검토를 사용합니다.
B. Amazon Rekognition을 사용하여 부적절한 콘텐츠를 감지합니다. 신뢰도가 낮은 예측에는 인적 검토를 사용합니다.
C. Amazon SageMaker를 사용하여 부적절한 콘텐츠를 감지합니다. 신뢰도가 낮은 예측에 레이블을 지정하려면 정답을 사용합니다.
D. AWS Fargate
를 사용하여 사용자 지정 기계 학습 모델을 배포하여 부적절한 콘텐츠를 감지합니다. 신뢰도가 낮은 예측에 레이블을 지정하려면 정답을 사용합니다.
더보기

Answer: B

Amazon Comprehend(이해하다) 자연어 처리, 개인식별정보 감지 텍스트를 분석
Amazon Rekognition **비디오분석자동화
주요기능 Amazon Rekognition을 사용하여 부적절하거나 원치 않거나 불쾌감을 주는 콘텐츠를 감지할 수 있습니다.
일반적이거나 비즈니스에 특정한 표준 및 사례에 따라 이미지 및 비디오 자산에서 안전하지 않거나 부적절한 콘텐츠를 빠르고 정확하게 식별합니다.


Amazon SageMaker 완전관리형 머신러닝 모델을 구축하고,훈련, 배포까지 가능한 서비스 
AWS Fargate 컨테이너용 서버리스 컴퓨팅 엔진으로, Amazon ECS와 Amazon EKS에서 작동 , 자동으로 서버관리 , 컨테이너를 실행하는데 필요한 리소스에 대해서만 비용 지불 

 

Q58.회사는 확장성 및 가용성에 대한 요구 사항을 충족하기 위해 컨테이너에서 중요한 응용 프로그램을 실행하려고 합니다. 회사는 중요한 응용 프로그램의 유지 관리에 집중하는 것을 선호합니다. 회사는 컨테이너화된 워크로드를 실행하는 기본 인프라의 프로비저닝 및 관리에 대한 책임을 원하지 않습니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A. Amazon EC2 인스턴스를 사용하고 인스턴스에 Docker를 설치합니다.
B. Amazon EC2 작업자 노드에서 Amazon Elastic Container Service(Amazon ECS)를 사용합니다.
C. AWS Fargate에서 Amazon Elastic Container Service(Amazon ECS)를 사용합니다.
D. Amazon Elastic Container Service(Amazon ECS)에 최적화된 Amazon 머신 이미지(AMI)의 Amazon EC2 인스턴스를 사용합니다.
더보기

Answer: C

AWS에서 컨테이너라고 하면 ECS, ECS라고 하면 일단 Fargate부터 떠올리면 됨. AWS Fargate Fargate Amazon EC2 인스턴스의 서버나 클러스터를 관리할 필요 없이 컨테이너를 실행하기 위해 Amazon ECS에 사용할 수 있는 기술입니다.

요구 사항은 컨테이너화된 워크로드를 실행하기 위해 기본 인프라를 프로비저닝하고 관리할 필요 없이 확장성과 가용성을 위한 것이므로 AWS Fargate에서 AWS ECS를 사용합니다.

Q59.회사는 300개 이상의 글로벌 웹사이트 및 애플리케이션을 호스팅합니다. 이 회사는 매일 30TB 이상의 클릭스트림 데이터를 분석할 플랫폼이 필요합니다.
솔루션 설계자는 클릭스트림 데이터를 전송하고 처리하기 위해 무엇을 해야 합니까?
A. AWS Data Pipeline을 설계하여 데이터를 Amazon S3 버킷에 보관하고 데이터로 Amazon EMR 클러스터를 실행하여 분석을 생성합니다.
B. Amazon EC2 인스턴스의 Auto Scaling 그룹을 생성하여 데이터를 처리하고 Amazon Redshift가 분석에 사용할 수 있도록 Amazon S3 데이터 레이크로 보냅니다.
C. 데이터를 Amazon CloudFront에 캐시합니다. Amazon S3 버킷에 데이터를 저장합니다. 객체가 S3 버킷에 추가될 때. AWS Lambda 함수를 실행하여 분석용 데이터를 처리합니다.
D. Amazon Kinesis Data Streams
에서 데이터를 수집합니다. Amazon Kinesis Data Firehose를 사용하여 Amazon S3 데이터 레이크로 데이터를 전송합니다. 분석을 위해Amazon Redshift
에 데이터를 로드합니다.

더보기

Answer: D

A 대량의 스트림 데이터 수집 = Kinesis Data Streams. 정답은 D

Amazon Kinesis Firehose 버퍼링된 데이터를 Amazon Kinesis Data Streams 에서 Amazon Simple Storage Service (Amazon S3) 영구 스토리지로 자동 이동합니다. 이는 팀이 이전에 관리해야 했던 Amazon Elastic Compute Cloud(Amazon EC2) 인스턴스를 대체합니다.

Q60.회사에 AWS에서 호스팅되는 웹 사이트가 있습니다. 웹 사이트는 HTTP와 HTTPS를 별도로 처리하도록 구성된 ALB(Application Load Balancer) 뒤에 있습니다. 회사는 요청이 HTTPS를 사용하도록 모든 요청을 웹사이트로 전달하려고 합니다.솔루션 설계자는 이 요구 사항을 충족하기 위해 무엇을 해야 합니까? ★
A. HTTPS 트래픽만 허용하도록 ALB의 네트워크 ACL을 업데이트합니다.
B. URL의 HTTP를 HTTPS로 바꾸는 규칙을 만듭니다.
C. ALB에서 리스너 규칙을 생성하여 HTTP 트래픽을 HTTPS로 리디렉션합니다.
D. ALB를 SNI(서버 이름 표시)를 사용하도록 구성된 Network Load Balancer로 교체합니다.
더보기

Answer: C

Application Load Balancer 리스너 규칙을 사용하여 HTTP 요청을 HTTPS로 리디렉션하려고 합니다. 어떻게 해야 하나요?

①HTTP 요청을 HTTPS로 리디렉션하는 HTTP 리스너 규칙 생성.

②HTTPS 리스너 생성.

③Application Load Balancer의 보안 그룹이 443의 트래픽을 허용하는지 확인

Q61.한 회사가 AWS에서 2계층 웹 애플리케이션을 개발하고 있습니다. 회사 개발자는 백엔드 Amazon RDS 데이터베이스에 직접 연결되는 Amazon EC2 인스턴스에 애플리케이션을 배포했습니다. 회사는 애플리케이션에 데이터베이스 자격 증명을 하드코딩해서는 안 됩니다. 또한 회사는 정기적으로 데이터베이스 자격 증명을 자동으로 교체하는 솔루션을 구현해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. 인스턴스 메타데이터에 데이터베이스 자격 증명을 저장합니다. Amazon EventBridge(Amazon CloudWatch Events) 규칙을 사용하여 RDS 자격 증명과 인스턴스 메타데이터를 동시에 업데이트하는 예약된 AWS Lambda 함수를 실행합니다.
B. 암호화된 Amazon S3 버킷의 구성 파일에 데이터베이스 자격 증명을 저장합니다. Amazon EventBridge(Amazon CloudWatch Events) 규칙을 사용하여 RDS 자격 증명과 구성 파일의 자격 증명을 동시에 업데이트하는 예약된 AWS Lambda 함수를 실행합니다. S3 버전 관리를 사용하여 이전 값으로 폴백하는 기능을 보장합니다.
C. 데이터베이스 자격 증명을 AWS Secrets Manager에 암호로 저장합니다. 보안 비밀에 대한 자동 순환을 켭니다. EC2 역할에 필요한 권한을 연결하여 보안 암호에 대한 액세스 권한을 부여합니다.
D.데이터베이스 자격 증명을 AWS Systems Manager Parameter Store에 암호화된 파라미터로 저장합니다. 암호화된 매개변수에 대해 자동 회전을 켭니다. EC2 역할에 필요한
권한을 연결하여 암호화된 파라미터에 대한 액세스 권한을 부여합니다.
더보기

Answer: C

애플리케이션에 자격증명 하드코딩 = Secrets Manager.

Secrets Manager 사용하면 애플리케이션 소스 코드에서 하드 코딩된 자격 증명을 제거하고 애플리케이션 자체에 자격 증명을 저장하지 않음으로써 보안 태세를 개선할 있습니다. 사용자의 개입 없이 지정한 일정에 따라 자동으로 보안 암호를 교체하도록 Secrets Manager 구성할 있습니다. 교체는 AWS Lambda 함수를 사용하여 정하고 실행합니다.

Q62.회사에서 AWS에 새로운 공개 웹 애플리케이션을 배포하고 있습니다. 애플리케이션은 ALB(Application Load Balancer) 뒤에서 실행됩니다. 애플리케이션은 외부 CA(인증 기관)에서 발급한 SSL/TLS 인증서를 사용하여 에지에서 암호화해야 합니다. 인증서가 만료되기 전에 매년 인증서를 교체해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까? ★
A. AWS Certificate Manager(ACM)를 사용하여 SSL/TLS 인증서를 발급합니다. 인증서를 ALB에 적용합니다. 관리형 갱신 기능을 사용하여 인증서를 자동으로 교체합니다.
B. AWS Certificate Manager(ACM)를 사용하여 SSL/TLS 인증서를 발급합니다. 인증서에서 키 자료를 가져옵니다. AL에 인증서 적용 관리되는 갱신 기능을 사용하여 인증서를 자동으로 교체합니다.
C. AWS Certificate Manager(ACM) 사설 인증 기관을 사용하여 루트 CA에서 SSL/TLS 인증서를 발급합니다. 인증서를 ALB에 적용합니다. 관리형 갱신 기능을 사용하여 인증서를 자동으로 교체합니다.
D. AWS Certificate Manager(ACM)를 사용하여 SSL/TLS 인증서를 가져옵니다. 인증서를 ALB에 적용합니다. Amazon EventBridge(Amazon CloudWatch Events)를 사용하여 인증서가 만료될 때 알림을 보냅니다. 인증서를 수동으로 교체합니다.
더보기

Answer: D

외부 인증기관에서 발급한 SSL/TLS 인증서가 이미 있고 이를 사용해야하므로 ACM 쪽에서 SSL/TLS 인증서를 발급하는 A,B는 모두 오답.

C(X) : 인증서가 있는데 또 발급받을 필요가 없음.

D.이미 발급된 인증ㅇ서를 가져오고 ALB에 적용!  Amazon EventBridge 사용하여 인증서가 만료될 때 알림을 보냅니

Q63.회사는 AWS에서 인프라를 실행하고 문서 관리 애플리케이션에 대해 700,000명의 등록 기반을 보유하고 있습니다. 회사는 큰 .pdf 파일을 .jpg 이미지 파일로 변환하는 제품을 만들려고 합니다. .pdf 파일의 크기는 평균 5MB입니다. 회사는 원본 파일과 변환 파일을 보관해야 합니다. 솔루션 설계자는 시간이 지남에 따라 빠르게 증가할 수요를 수용할 수 있는 확장 가능한 솔루션을 설계해야 합니다.어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족합니까?
A. .pdf 파일을 Amazon S3에 저장합니다. AWS Lambda 함수를 호출하여 파일을 .jpg 형식으로 변환하고 Amazon S3에 다시 저장하도록 S3 PUT 이벤트를 구성합니다.
B. .pdf 파일을 Amazon DynamoD에 저장 DynamoDB 스트림 기능을 사용하여 AWS Lambda 함수를 호출하여 파일을 .jpg 형식으로 변환하고 DynamoDB에 다시 저장합니다.
C. Amazon EC2 인스턴스, Amazon Elastic Block Store(Amazon EBS) 스토리지 및 Auto Scaling 그룹이 포함된 AWS Elastic Beanstalk 애플리케이션에 .pdf 파일을 업로드합니다. EC2 인스턴스의 프로그램을 사용하여 파일을 .jpg 형식으로 변환합니다. .pdf 파일과 .jpg 파일을 EBS 스토어에 저장합니다.
D. .pdf파일을 Amazon EC2인스턴스, Amazon Elastic File System(Amazon EFS)스토리지및Auto Scaling그룹이
포함된 AWS Elastic Beanstalk애플리케이션에업로드합니다
EC2 인스턴스의 프로그램을 사용하여 파일을 .jpg 형식으로 변환합니다. .pdf 파일과 .jpg 파일을 EBS 스토어에 저장합니다.
더보기

Answer: A

A(O) : S3에 넣으면 Lambda를 통해 자동으로 처리가 되도록 하는 거라 OK. S3는 저렴함.

B(X) : dynamodb는 이미지 저장용으론…

C(X) : 저렴한 S3가 있는데 굳이... 인스턴스 비용도 나감./ Elastic BeanStalk is expensive

D(x) : C와 마찬가지. Elastic BeanStalk is expensive

Elastic BeanStalk is expensive, and DocumentDB has a 400KB max to upload files. So Lambda and S3 should be the one.

Q64.회사는 온프레미스에서 실행되는 Windows 파일 서버에 5TB 이상의 파일 데이터를 가지고 있습니다. 사용자와 애플리케이션은 매일 데이터와 상호 작용합니다.이 회사는 Windows 워크로드를 AWS로 이전하고 있습니다. 회사가 이 프로세스를 계속함에 따라 회사는 최소 지연 시간으로 AWS 및 온프레미스 파일 스토리지에 액세스할 수 있어야 합니다. 회사는 운영 오버헤드를 최소화하고 기존 파일 액세스 패턴을 크게 변경할 필요가 없는 솔루션이 필요합니다. 회사는 AWS 연결을 위해 AWS Site-to-Site VPN 연결을 사용합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까? ★
A. AWS에서 Windows 파일 서버용 Amazon FSx를 배포 및 구성합니다. 온-프레미스 파일 데이터를 Windows 파일 서버용 FSx로 이동합니다. AWS에서 Windows 파일 서버용 FSx를 사용하도록 워크로드를 재구성합니다.
B. 온프레미스에 Amazon S3 파일 게이트웨이를 배포하고 구성합니다. 온프레미스 파일 데이터를 S3 파일 게이트웨이로 이동합니다. S3 파일 게이트웨이를 사용하도록 온프레미스 워크로드 및 클라우드 워크로드를 재구성합니다.
C. 온프레미스에 Amazon S3 파일 게이트웨이를 배포하고 구성합니다. 온프레미스 파일 데이터를 Amazon S3로 이동합니다. Amazon S3를 직접 사용하거나 S3 파일 게이트웨이를 사용하도록 워크로드를 재구성합니다. 각 워크로드의 위치에 따라 다릅니다.
D. AWS에서 Windows파일서버용 Amazon FSx를 배포 및 구성합니다 온프레미스에 Amazon FSx 파일 게이트웨이를배포하고 구성합니다.온프레미스 파일 데이터를 FSx파일게이트웨이로이동합니다 AWS의 Windows파일서버용
FSx를 사용하도록 클라우드 워크로드를 구성합니다. FSx 파일 게이트웨이를 사용하도록 온프레미스 워크로드를 구성합니다.

 

더보기

Answer: D

Windows File Server + AWS 이동 = Amazon FSx File Gateway.

Amazon FSx 파일 게이트웨이는 Amazon FSx Windows 파일 공유에 대한 온프레미스 액세스를 최적화하여 사용자가 짧은 지연 시간과 공유 대역폭을 유지하면서 Windows 파일 서버용 FSx 데이터에 쉽게 액세스할 있도록 합니다. 사용자는 액세스할 있는 자주 사용하는 데이터의 로컬 캐시를 활용하여 성능을 높이고 데이터 전송 트래픽을 줄일 있습니다. 파일 읽기 쓰기와 같은 파일 시스템 작업은 모두 로컬 캐시에 대해 수행되는 반면 Amazon FSx 파일 게이트웨이는 변경된 데이터를 백그라운드에서 Windows 파일 서버용 FSx 동기화합니다. 이러한 기능을 사용하면 Windows 파일 서버용 FSx에서 AWS 모든 온프레미스 파일 공유 데이터를 통합하고 보호되고 탄력적인 완전 관리형 파일 시스템의 이점을 누릴 있습니다

대기 시간을 최소화하면서 AWS와 온프레미스 파일 스토리지 모두에 액세스해야 하는 회사의 요구 사항을 충족하기 위해 하이브리드 클라우드 아키텍처를 사용할 수 있습니다. 한 가지 솔루션은 완벽하게 관리되는 Windows 파일 서버를 제공하는 AWS에서 Windows 파일 서버용 Amazon FSx를 배포 및 구성하는 것입니다.

온프레미스 파일 데이터는 온프레미스와 AWS 파일 스토리지 간의 브리지 역할을 할 수 있는 FSx 파일 게이트웨이로 이동할 수 있습니다. 클라우드 워크로드는 AWS에서 Windows File Server FSx를 사용하도록 구성할 수 있으며 온프레미스 워크로드는 FSx .

이 솔루션은 운영 오버헤드를 최소화하고 기존 파일 액세스 패턴을 크게 변경할 필요가 없습니다. 온프레미스와 AWS 간의 연결은 AWS Site-to-Site VPN 연결을 사용하여 설정할 수 있습니다  > 온프레이스에  Amazon FSx 파일 게이트웨이를배포하고 구성

Q65.병원은 최근 Amazon API Gateway 및 AWS Lambda와 함께 RESTful API를 배포했습니다. 병원은 API Gateway 및 Lambda를 사용하여 PDF 형식 및 JPEG 형식의 보고서를 업로드합니다. 병원은 보고서에서 보호되는 건강 정보(PHI)를 식별하기 위해 Lambda 코드를 수정해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★
A. 기존 Python 라이브러리를 사용하여 보고서에서 텍스트를 추출하고 추출된 텍스트에서 PHI를 식별합니다.
B. Amazon Textract를 사용하여 보고서에서 텍스트를 추출합니다. Amazon SageMaker를 사용하여 추출된 텍스트에서 PHI를 식별합니다.
C. Amazon Textract를 사용하여 보고서에서 텍스트를 추출합니다. Amazon Comprehend Medical을 사용하여 추출된 텍스트에서 PHI를 식별합니다.
D. Amazon Rekognition을 사용하여 보고서에서 텍스트를 추출합니다. Amazon Comprehend Medical을 사용하여 추출된 텍스트에서 PHI를 식별합니다.
더보기

Answer: C

Textract로 텍스트 추출, Comprehend Medical을 통해 식별

Comprehend  : 자연어 처리, 개인식별정보 감지 텍스트를 분석

A(X) : Textract Comprehend Medical을 사용하는 것이 파이썬 코드를 별도로 관리할 필요가 없어서 운영하기 편함.

B(X) : SageMaker는 기계 학습 모델 서비스.

Amazon SageMaker는 완전관리형 인프라, 도구 및 워크플로를 사용하여 모든 사용 사례에 대해 기계 학습(ML) 모델을 구축, 훈련 및 배포하는 완전관리형 서비스입니다.

D(X) : Amazon Rekognition는 비디오분석(텍스트아님) 부적절한 내용감지

Q66.회사에 각각 크기가 약 5MB인 많은 수의 파일을 생성하는 응용 프로그램이 있습니다. 파일은 Amazon S3에 저장됩니다. 회사 정책에 따라 파일을 삭제하려면 4년 동안 보관해야 합니다. 파일에는 재생산하기 쉽지 않은 중요한 비즈니스 데이터가 포함되어 있으므로 즉각적인 액세스가 항상 필요합니다 . 파일은 객체 생성 후 처음 30일 동안 자주 액세스되지만 처음 30일 후에는 거의 액세스되지 않습니다.★★
가장 비용 효율적인 스토리지 솔루션은 무엇입니까?
A. 객체 생성 후 30일 동안 S3 Standard에서 S3 Glacier로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 후 4년이 지나면 파일을 삭제합니다.
B. 객체 생성 후 30일 동안 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 후 4년이 지나면 파일을 삭제합니다.
C. 객체 생성 후 30일 동안 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 후 4년이 지나면 파일을 삭제합니다.
D. 객체 생성 후 30일 동안 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 4년 후 파일을 S3 Glacier로 이동합니다.
더보기

Answer: C

A(X) : 즉각적인 액세스가 항상 필요하다고 했기 때문에 S3 Glacier 사용은 적합하지 않음.

B(X) : 재생산하기 쉽지 않은 중요한 비즈니스 데이터라고 했기 때문에 One Zone-IA 보다는 S3 Standard-IA가 더 적합

C(O) : 30일 동안은 자주 액세스하므로 S3 Standard, 30일 이후에는 자주 액세스하진 않지만 즉각적인 액세스가 필요하므로 S3 Standard-IA, 4년이 지나면 중요한 비즈니스 데이터므로 함부로 보관해서는 안됨. 따라서 삭제.

D(X) : 중요한 비즈니스 데이터라고 했으므로 보관기간인 4년이 지나고 나서는 함부로 보관해서는 안되며 삭제해야 함.

Q67.회사는 여러 Amazon EC2 인스턴스에서 애플리케이션을 호스팅합니다. 애플리케이션은 Amazon SQS 대기열의 메시지를 처리하고 Amazon RDS 테이블에 쓰고 대기열에서 메시지를 삭제합니다. RDS 테이블에서 가끔 중복 레코드가 발견됩니다. SQS 대기열에는 중복 메시지가 없습니다.메시지가 한 번만 처리되도록 솔루션 설계자는 무엇을 해야 합니까?
A. CreateQueue API 호출을 사용하여 새 대기열을 만듭니다.
B. AddPermission API 호출을 사용하여 적절한 권한을 추가합니다.
C. ReceiveMessage API 호출을 사용하여 적절한 대기 시간을 설정합니다.
D. ChangeMessageVisibility API 호출을 사용하여 가시성 시간 초과를 늘립니다.
더보기

Answer: D

메시지를 수신한 직후에는 메시지가 대기열에 그대로 있습니다. 다른 소비자가 메시지를 다시 처리하지 못하게 Amazon SQS에서는 다른 소비자가 메시지를 수신하고 처리할 수 없도록 막는 기간인 Visibility timeout을 설정합니다

SQS  데이터 중복 시 -ChangeMessageVisibility API 호출

Q68.솔루션 설계자는 회사의 온프레미스 인프라를 AWS로 확장하기 위해 새로운 하이브리드 아키텍처를 설계하고 있습니다. 이 회사는 AWS 리전에 대해 일관되게 짧은 지연 시간과 고가용성 연결이 필요합니다. 회사는 비용을 최소화해야 하며 기본 연결이 실패할 경우 더 느린 트래픽을 기꺼이 받아들입니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까? ★★
A. 리전에 대한 AWS Direct Connect 연결을 프로비저닝합니다. 기본 Direct Connect 연결이 실패하는 경우 백업으로 VPN 연결을 프로비저닝합니다.
B. 개인 연결을 위해 지역에 VPN 터널 연결을 프로비저닝합니다. 기본 VPN 연결이 실패할 경우 개인 연결 및 백업으로 두 번째 VPN 터널을 프로비저닝합니다.
C. 리전에 대한 AWS Direct Connect 연결을 프로비저닝합니다. 기본 Direct Connect 연결이 실패하는 경우 백업과 동일한 지역에 두 번째 Direct Connect 연결을 프로비저닝합니다.
D. 리전에 대한 AWS Direct Connect 연결을 프로비저닝합니다. AWS CLI에서 Direct Connect 장애 조치 속성을 사용하여 기본 Direct Connect 연결이 실패할 경우 백업 연결을 자동으로 생성합니다.
더보기

Answer: A

VPN Direct Connect는 같이 사용할 수 있음

어떤 경우에는 이 연결만으로는 충분하지 않습니다. 항상 DX의 백업으로 폴백 연결을 보장하는 것이 좋습니다. 여러 옵션이 있지만 AWS Site-To-Site VPN으로 구현하는 것이 비용 효율적입니다. 비용을 줄이기 위해 활용하거나 그 동안 두 번째 DX 설정을 기다릴 수 있는 솔루션입니다.

Q69.회사는 Application Load Balancer 뒤의 Amazon EC2 인스턴스에서 비즈니스 크리티컬 웹 애플리케이션을 실행하고 있습니다. EC2 인스턴스는 Auto Scaling 그룹에 있습니다. 애플리케이션은 단일 가용 영역에 배포된 Amazon Aurora PostgreSQL 데이터베이스를 사용합니다. 회사는 다운타임과 데이터 손실을 최소화하면서 애플리케이션의 고가용성을 원합니다.최소한의 운영 노력으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★
A. EC2 인스턴스를 다른 AWS 리전에 배치합니다. Amazon Route 53 상태 확인을 사용하여 트래픽을 리디렉션합니다. Aurora PostgreSQL 교차 리전 복제를 사용합니다.
B. 여러 가용 영역을 사용하도록 Auto Scaling 그룹을 구성합니다. 데이터베이스를 다중 AZ로 구성합니다. 데이터베이스에 대한 Amazon RDS 프록시 인스턴스를 구성합니다.
C. 하나의 가용 영역을 사용하도록 Auto Scaling 그룹을 구성합니다. 데이터베이스의 시간별 스냅샷을 생성합니다. 장애가 발생한 경우 스냅샷에서 데이터베이스를 복구합니다.
D. 여러 AWS 리전을 사용하도록 Auto Scaling 그룹을 구성합니다. 애플리케이션의 데이터를 Amazon S3에 씁니다. S3 이벤트 알림을 사용하여 AWS Lambda 함수를 시작하여 데이터베이스에 데이터를 씁니다.
더보기

Answer: B

비용효율적인것은 다중AZ> 다중리전은 무리수

A(X) : 다중 AZ 사용이 더 바람직. 게다가 뜬금없이 잘 쓰고 있던 EC2 인스턴스를 다른 AZ도 아니고 다른 리전에 배치하는 건 무리수.

B(O) : 다중 AZ + Auto Scaling으로 고가용성 확보.

C(X) : 하나의 가용영역을 사용하므로 고가용성 불충족.

D(X) : 다중 AZ가 더 바람직할 뿐더러 굳이 불필요하게 S3를 거쳐가고 있음.

Q70.회사의 HTTP 애플리케이션은 NLB(Network Load Balancer) 뒤에 있습니다. NLB의 대상 그룹은 웹 서비스를 실행하는 여러 EC2 인스턴스와 함께 Amazon EC2 Auto Scaling 그룹을 사용하도록 구성됩니다.
회사는 NLB가 애플리케이션에 대한 HTTP 오류를 감지하지 못한다는 것을 알게 되었습니다. 이러한 오류는 웹 서비스를 실행하는 EC2 인스턴스를 수동으로 다시 시작해야 합니다. 회사는 사용자 정의 스크립트나 코드를 작성하지 않고 애플리케이션의 가용성을 개선해야 합니다.솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A. NLB에서 HTTP 상태 확인을 활성화하고 회사 응용 프로그램의 URL을 제공합니다.
B. EC2 인스턴스에 cron 작업을 추가하여 1분에 한 번씩 로컬 애플리케이션의 로그를 확인합니다. HTTP 오류가 감지된 경우. 응용 프로그램이 다시 시작됩니다.
C. NLB를 Application Load Balancer로 교체합니다. 회사 애플리케이션의 URL을 제공하여 HTTP 상태 확인을 활성화합니다. 비정상 인스턴스를 교체하도록 Auto Scaling 작업을 구성합니다.
D. NLB에 대한 UnhealthyHostCount 지표를 모니터링하는 Amazon Cloud Watch 경보를 생성합니다. 경보가 ALARM 상태일 때 비정상 인스턴스를 교체하도록 Auto Scaling 작업을 구성합니다.
더보기

Answer: C

이 회사는 NLB가 응용 프로그램에 대한 HTTP 오류를 감지하지 못한다고 알고 있습니다'라는 대목에서 응용프로그램에 대한 HTTP 오류를 감지하려면 ALB(Applicaton Load Balancer)가 필요함을 유추할 수 있음.

A(X) : 응용프로그램에 대한 HTTP 오류를 감지해야하므로 NLB는 부적절.

B(X) : 자동이 아니라 정기적으로 로그를 확인하는 것이므로 오답.

C(O) : Application Load Balancer는 등록된 대상으로 요청을 주기적으로 전송하여 상태를 확인합니다. 이러한 테스트를 바로 상태 확인이라고 합니다....◎HealthCheckProtocol : 대상에 대한 상태 확인을 수행할 때 로드 밸런서가 사용하는 프로토콜입니다. HTTP, HTTPS 등의 프로토콜이 여기에 해당됩니다. HTTP 프로토콜이 기본 설정값입니다

Q71.한 회사는 Amazon DynamoDB를 사용하여 고객 정보를 저장하는 쇼핑 애플리케이션을 실행합니다. 데이터 손상의 경우 솔루션 설계자는 15분의 RPO(복구 시점 목표)와 1시간의 RTO(복구 시간 목표)를 충족하는 솔루션을 설계해야 합니다.이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 권장해야 합니까? ★★
A. DynamoDB 전역 테이블을 구성합니다. RPO 복구의 경우 애플리케이션이 다른 AWS 리전을 가리키도록 합니다.
B. DynamoDB 지정 시간 복구를 구성합니다. RPO 복구의 경우 원하는 시점으로 복원합니다.
C. DynamoDB 데이터를 매일 Amazon S3 Glacier로 내보냅니다. RPO 복구의 경우 S3 Glacier에서 DynamoDB로 데이터를 가져옵니다.
D. DynamoDB 테이블에 대한 Amazon Elastic Block Store(Amazon EBS) 스냅샷을 15분마다 예약합니다. RPO 복구의 경우 EBS 스냅샷을 사용하여 DynamoDB 테이블을 복원합니다.
더보기

Answer: B

B(O) : DynamoDB는 주문형 백업 기능을 제공합니다. 이를 통해 규정 준수 요구 사항에 대한 장기 보존 및 보관을 위해 테이블의 전체 백업을 생성할 수 있습니다. 주문형 백업을 생성하고 Amazon DynamoDB 테이블에 대한 특정 시점 복구를 활성화할 수 있습니다. 지정 시간 복구는 우발적인 쓰기 또는 삭제 작업으로부터 테이블을 보호하는 데 도움이 됩니다. 특정 시점 복구를 사용하면 지난 35일 동안의 특정 시점으로 테이블을 복원할 수 있습니다

DynamoDB 서버리스라 스냅샷 미제공

Q72.회사는 동일한 AWS 리전에 있는 Amazon S3 버킷에서 사진을 자주 업로드 및 다운로드해야 하는 사진 처리 애플리케이션을 실행합니다. 솔루션 설계자는 데이터 전송 비용이 증가한다는 사실을 알게 되었고 이러한 비용을 줄이기 위한 솔루션을 구현해야 합니다.솔루션 설계자는 이 요구 사항을 어떻게 충족할 수 있습니까? ★★★
A. Amazon API Gateway를 퍼블릭 서브넷에 배포하고 이를 통해 S3 호출을 라우팅하도록 라우팅 테이블을 조정합니다.
B. NAT 게이트웨이를 퍼블릭 서브넷에 배포하고 S3 버킷에 대한 액세스를 허용하는 엔드포인트 정책을 연결합니다.
C. 애플리케이션을 퍼블릭 서브넷에 배포하고 S3 버킷에 액세스하기 위해 인터넷 게이트웨이를 통해 라우팅하도록 허용합니다.
D. S3 VPC 게이트웨이 엔드포인트를 VPC에 배포하고 S3 버킷에 대한 액세스를 허용하는 엔드포인트 정책을 연결합니다.
더보기

Answer: D

A(X) : VPC-온프레미스 간 통신은 이루어지나 VPC 간 통신은 이루어지지 않고 있음.

B(X) : A와 같은 이유로 오답.

C(X) : A와 같은 이유로 오답.

D(O) : Transit Gateway는 동일한 리전 내에 있는 여러 VPC들을 연결하는 전송 '허브'이므로 Transit Gateway를 거쳐 VPC끼리 통신이 가능

AWS Transit Gateway는 동일한 리전의 VPC를 상호 연결하여 Amazon VPC 라우팅 구성을 한 곳에 통합하는 네트워크 전송 허브입니다.

Q73.한 회사는 최근 프라이빗 서브넷의 Amazon EC2에서 Linux 기반 애플리케이션 인스턴스를 시작하고 VPC의 퍼블릭 서브넷에 있는 Amazon EC2 인스턴스에서 Linux 기반 배스천 호스트를 시작했습니다. 솔루션 설계자는 사내 네트워크에서 회사의 인터넷 연결을 통해 배스천 호스트 및 애플리케이션 서버에 연결해야 합니다. 솔루션 설계자는 모든 EC2 인스턴스의 보안 그룹이 해당 액세스를 허용하는지 확인해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 단계 조합을 취해야 합니까? (2개를 선택하세요.)
★★
A. 배스천 호스트의 현재 보안 그룹을 애플리케이션 인스턴스의 인바운드 액세스만 허용하는 보안 그룹으로 교체합니다.
B. 배스천 호스트의 현재 보안 그룹을 회사의 내부 IP 범위에서만 인바운드 액세스를 허용하는 보안 그룹으로 교체합니다.
C. 배스천 호스트의 현재 보안 그룹을 회사의 외부 IP 범위에서만 인바운드 액세스를 허용하는 보안 그룹으로 교체합니다.
D. 애플리케이션 인스턴스의 현재 보안 그룹을 배스천 호스트의 개인 IP 주소에서만 인바운드 SSH 액세스를 허용하는 보안 그룹으로 교체합니다
E. 애플리케이션 인스턴스의 현재 보안 그룹을 배스천 호스트의 공용 IP 주소에서만 인바운드 SSH 액세스를 허용하는 보안 그룹으로 교체합니다.
더보기

Answer: C, D

전체적인 프로세스는 사내네트워크 -> 외부 인터넷 -> Bastion Host(퍼블릭서브넷 내에 NAT게이트웨이와 함께 위치) -> Application(프라이빗서브넷 내에 위치)으로 이루어짐.

Bastion Host는 내부네트워크(여기서는 Application이 있는 곳)에 접속할 수 있는 유일한 창구로, SSH 접속도 여길 통과해야만 가능함.

일단 Bastion Host에 오는 트래픽(인바운드 트래픽)은 외부 인터넷을 통해서 온 회사의 IP(, 외부 IP)이므로 C가 정답.

그 다음으로는 Bastion Host로부터 Application으로 오는 트래픽(인바운드 트래픽)을 허용해야하는데 이미 Bastion Host에서 안쪽의 내부 네트워크와 통신하려고 프라이빗 IP를 들고 온 상태임. 따라서 D가 정답이며 최종적으로는 C,D가 정답.

Q74.솔루션 설계자는 2계층 웹 애플리케이션을 설계하고 있습니다. 애플리케이션은 퍼블릭 서브넷의 Amazon EC2에서 호스팅되는 퍼블릭 웹 티어로 구성됩니다. 데이터베이스 계층은 프라이빗 서브넷의 Amazon EC2에서 실행되는 Microsoft SQL Server로 구성됩니다. 보안은 회사의 최우선 과제입니다.이 상황에서 보안 그룹을 어떻게 구성해야 합니까? (2개를 선택하세요.) ★★
A. 0.0.0.0/0에서 포트 443의 인바운드 트래픽을 허용하도록 웹 계층에 대한 보안 그룹을 구성합니다.
B. 0.0.0.0/0에서 포트 443의 아웃바운드 트래픽을 허용하도록 웹 계층에 대한 보안 그룹을 구성합니다.
C. 웹 계층에 대한 보안 그룹에서 포트 1433의 인바운드 트래픽을 허용하도록 데이터베이스 계층에 대한 보안 그룹을 구성합니다.
D. 데이터베이스 계층의 보안 그룹을 구성하여 포트 443 및 1433의 아웃바운드 트래픽을 웹 계층의 보안 그룹으로 보냅니다.
E. 웹 계층에 대한 보안 그룹의 포트 443 및 1433에서 인바운드 트래픽을 허용하도록 데이터베이스 계층에 대한 보안 그룹을 구성합니다.
더보기

Answer: A,C

전체적인 구조는 EC2 인스턴스에서 실행되는 웹 애플리케이션(퍼블릭 서브넷 내에 위치)---->EC2 인스턴스에서 실행되는 데이터베이스(프라이빗 서브넷 내에 위치)으로 되어있고,

인스턴스 단위의 보안은 보안 그룹이 담당.

보안 그룹은 허용하지 않은 건 기본적으로 모두 차단하기 때문에

1.외부 인터넷( 0.0.0.0/0 )->웹 애플리케이션으로의 액세스를 허용하려면 0.0.0.0/0으로부터 온 포트 443(HTTPS)를 허용해야 함.

2.웹 애플리케이션->데이터베이스로의 액세스를 허용하려면 웹 애플리케이션이 있는 웹 계층에서 오는 포트 1433(MySQL) 인바운드 트래픽을 허용하도록 보안 그룹 설정을 해야 함. 따라서 정답은 A,C.

Q75.한 회사에서 애플리케이션의 성능을 개선하기 위해 다계층 애플리케이션을 온프레미스에서 AWS 클라우드로 이동하려고 합니다. 애플리케이션은 RESTful 서비스를 통해 서로 통신하는 애플리케이션 계층으로 구성됩니다. 한 계층이 오버로드되면 트랜잭션이 삭제됩니다. 솔루션 설계자는 이러한 문제를 해결하고 애플리케이션을 현대화하는 솔루션을 설계해야 합니다.어떤 솔루션이 이러한 요구 사항을 충족하고 운영상 가장 효율적입니까? ★
A. Amazon API Gateway를 사용하고 애플리케이션 계층으로 AWS Lambda 함수에 트랜잭션을 전달합니다. Amazon Simple Queue Service(Amazon SQS)를 애플리케이션 서비스 간의 통신 계층으로 사용합니다.
B. Amazon CloudWatch 지표를 사용하여 애플리케이션 성능 기록을 분석하여 성능 장애 동안 서버의 최대 사용률을 결정합니다. 최대 요구 사항을 충족하도록 애플리케이션 서버의 Amazon EC2 인스턴스 크기를 늘립니다.
C. Amazon Simple Notification Service(Amazon SNS)를 사용하여 Auto Scaling 그룹의 Amazon EC2에서 실행되는 애플리케이션 서버 간의 메시징을 처리합니다. Amazon CloudWatch를 사용하여 SNS 대기열 길이를 모니터링하고 필요에 따라 확장 및 축소합니다.
D. Amazon Simple Queue Service(Amazon SQS)를 사용하여 Auto Scaling 그룹의 Amazon EC2에서 실행되는 애플리케이션 서버 간의 메시징을 처리합니다. Amazon CloudWatch를 사용하여 SQS 대기열 길이를 모니터링하고 통신 오류가 감지되면 확장합니다.
더보기

Answer:  A

RESTful API = API Gateway 사용.

트랜잭션 삭제되는 문제 = SQS.

SQS =

매시지 대기열서비스
FIFO대기열을 사용해야 선입선출!

 

Q76.회사는 단일 공장에 있는 여러 기계에서 매일 10TB의 계측 데이터를 수신합니다. 데이터는 공장 내에 위치한 온프레미스 데이터 센터의 SAN(Storage Area Network)에 저장된 JSON 파일로 구성됩니다. 회사는 이 데이터를 Amazon S3로 전송하여 중요한 실시간에 가까운 분석을 제공하는 여러 추가 시스템에서 액세스할 수 있기를 원합니다. 데이터가 민감한 것으로 간주되기 때문에 안전한 전송이 중요합니다.가장 안정적인 데이터 전송을 제공하는 솔루션은 무엇입니까?
A. 공용 인터넷을 통한 AWS DataSync
B. AWS Direct Connect를 통한 AWS DataSync
C. 공용 인터넷을 통한 AWS Database Migration Service(AWS DMS)
D. AWS Direct Connect를 통한 AWS Database Migration Service(AWS DMS)
더보기

Answer:  B

A(X) : 퍼블릭 인터넷으로 전송하면 노출 위험이 큼. 심지어는 VPN도 안 했음.

B(O) : Direct Connect는 전용선 연결로 온프레미스-AWS 간 통신하는 것이고, DataSync는 데이터 전송/마이그레이션에 사용되는 서비스.

AWS DataSync는 온프레미스와 AWS 스토리지 서비스 사이에서 데이터 이동을 자동화 및 가속화하는 안전한 온라인 서비스입니다. Amazon Simple Storage Service(S3) 버킷 간에 데이터를 복사할 수 있습니다. https://aws.amazon.com/ko/datasync/

C(X) : A와 마찬가지 이유로 오답.(공용인터넷 사용안됨)

D(X) : DMS는 데이터베이스 마이그레이션 서비스로 S3로 데이터를 전송해야하는 지문 상황과는 맞지 않음.

Q77.회사는 애플리케이션에 대한 실시간 데이터 수집 아키텍처를 구성해야 합니다. 회사에는 데이터가 스트리밍될 때 데이터를 변환하는 프로세스인 API와 데이터를 위한 스토리지 솔루션이 필요합니다.최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. Amazon EC2 인스턴스를 배포하여 Amazon Kinesis 데이터 스트림으로 데이터를 전송하는 API를 호스팅합니다. Kinesis 데이터 스트림을 데이터 원본으로 사용하는 Amazon Kinesis Data Firehose 전송 스트림을 생성합니다. AWS Lambda 함수를 사용하여 데이터를 변환합니다. Kinesis Data Firehose 전송 스트림을 사용하여 데이터를 Amazon S3로 보냅니다.
B. Amazon EC2 인스턴스를 배포하여 AWS Glue에 데이터를 전송하는 API를 호스팅합니다. EC2 인스턴스에서 소스/대상 확인을 중지합니다. AWS Glue를 사용하여 데이터를 변환하고 데이터를 Amazon S3로 보냅니다.
C. Amazon Kinesis 데이터 스트림으로 데이터를 보내도록 Amazon API Gateway API를 구성합니다. Kinesis 데이터 스트림을 데이터 원본으로 사용하는 Amazon Kinesis Data Firehose 전송 스트림을 생성합니다. AWS Lambda 함수를 사용하여 데이터를 변환합니다. Kinesis Data Firehose 전송 스트림을 사용하여 데이터를 Amazon S3로 보냅니다.
D. 데이터를 AWS Glue로 보내도록 Amazon API Gateway API를 구성합니다. AWS Lambda 함수를 사용하여 데이터를 변환합니다. AWS Glue를 사용하여 데이터를 Amazon S3로 보냅니다.
더보기

Answer:  C

실시간 데이터 수집 = Kinesis Data Streams. A,C 둘 중 하나가 답.

A(X) : API API Gateway를 사용하여 전송.

Amazon API Gateway는 어떤 규모에서든 개발자가 API를 손쉽게 생성, 게시, 유지 관리, 모니터링 및 보안 유지할 수 있도록 하는 완전관리형 서비스입니다. API는 애플리케이션이 백엔드 서비스의 데이터, 비즈니스 로직 또는 기능에 액세스할 수 있는 "정문" 역할을 합니다. https://aws.amazon.com/ko/api-gateway/

C(O) :

API Gateway API를 Kinesis Data Streams와 같이 사용 가능

API Gateway API Kinesis와 통합하려면 API Gateway Kinesis 서비스를 모두 사용할 수 있는 리전을 선택해야 합니다.

Q78.회사는 사용자 트랜잭션 데이터를 Amazon DynamoDB 테이블에 보관해야 합니다. 회사는 데이터를 7년간 보관해야 합니다.이러한 요구 사항을 충족하는 가장 운영 효율성이 높은 솔루션은 무엇입니까? ★
A. DynamoDB 지정 시간 복구를 사용하여 테이블을 지속적으로 백업합니다.
B. AWS Backup을 사용하여 테이블에 대한 백업 일정 및 보존 정책을 생성합니다.
C. DynamoDB 콘솔을 사용하여 테이블의 주문형 백업을 생성합니다. 백업을 Amazon S3 버킷에 저장합니다. S3 버킷에 대한 S3 수명 주기 구성을 설정합니다.
D. AWS Lambda 함수를 호출하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다. 테이블을 백업하고 Amazon S3 버킷에 백업을 저장하도록 Lambda 함수를 구성합니다. S3 버킷에 대한 S3 수명 주기 구성을 설정합니다.
더보기

Answer:  B

A(X) : 35일 제한이 있습니다. ""특정 시점으로 복구가 설정되어 있으면 최근 35일 중 원하는 시점으로 테이블을 복원할 수 있습니다.

B(O) : 한 곳에서 백업 현황 모니터링 및 콜드 스토리지에 저장, 예약 저장 가능합니다. AWS Backup을 사용하면 백업 정책을 구성하고 AWS 리소스 및 온프레미스 워크로드에 대한 활동을 한 곳에서 모니터링할 수 있습니다. AWS Backup과 함께 DynamoDB를 사용하면 AWS 계정 및 리전에서 온디맨드 백업을 복사하고, 온디맨드 백업에 비용 할당 태그를 추가하고, 온디맨드 백업을 콜드 스토리지로 전환하여 비용을 절감할 수 있습니다.

Q79.회사에서 데이터 저장을 위해 Amazon DynamoDB 테이블을 사용할 계획입니다. 회사는 비용 최적화에 대해 우려하고 있습니다. 대부분의 아침에는 테이블을 사용하지 않습니다. 저녁에는 읽기 및 쓰기 트래픽이 예측할 수 없는 경우가 많습니다. 트래픽 급증이 발생하면 매우 빠르게 발생합니다.솔루션 아키텍트는 무엇을 추천해야 합니까? ★
A. 온디맨드 용량 모드에서 DynamoDB 테이블을 생성합니다.
B. 글로벌 보조 인덱스가 있는 DynamoDB 테이블을 생성합니다.
C. 프로비저닝된 용량 및 Auto Scaling을 사용하여 DynamoDB 테이블을 생성합니다.
D. 프로비저닝된 용량 모드에서 DynamoDB 테이블을 생성하고 전역 테이블로 구성합니다.
더보기

Answer: A

사용량 예측이 안 되므로 프로비저닝은 무의미. 따라서 C,D는 제외되고 A,B 둘 중 하나가 정답.

A(O) : 온디맨드 모드를 사용하는 테이블의 경우 DynamoDB는 이전에 관찰된 트래픽 수준까지 상승하거나 하락할 때 고객의 워크로드를 즉시 수용할 수 있습니다. 트래픽 수준이 새로운 고점에 도달하면 DynamoDB는 신속하게 대응하여 워크로드를 수용합니다.

B(X) : 고가용성 언급이 없고 비용 최적화를 언급하고 있으므로 B보다는 A가 적합.

Q80.한 회사는 최근 애플리케이션 마이그레이션 이니셔티브에 대한 지원을 위해 AWS 관리형 서비스 공급자(MSP) 파트너와 계약을 체결했습니다. 솔루션 설계자는 기존 AWS 계정의 Amazon 머신 이미지(AMI)를 MSP 파트너의 AWS 계정과 공유해야 합니다. AMI는 Amazon Elastic Block Store(Amazon EBS)의 지원을 받으며 AWS Key Management Service(AWS KMS) 고객 관리형 키를 사용하여 EBS 볼륨 스냅샷을 암호화합니다.
솔루션 설계자가 MSP 파트너의 AWS 계정과 AMI를 공유하는 가장 안전한 방법은 무엇입니까? ★
A. 암호화된 AMI 및 스냅샷을 공개적으로 사용할 수 있도록 합니다. MSP 파트너의 AWS 계정이 키를 사용할 수 있도록 키 정책을 수정합니다.
B. AMI의 launchPermission 속성을 수정합니다. MSP 파트너의 AWS 계정과만 AMI를 공유하십시오. MSP 파트너의 AWS 계정이 키를 사용할 수 있도록 키 정책을 수정합니다.
C. AMI의 launchPermission 속성을 수정합니다. MSP 파트너의 AWS 계정과만 AMI를 공유하십시오. 암호화를 위해 MSP 파트너가 소유한 새 KMS 키를 신뢰하도록 키 정책을 수정합니다.
D. 원본 계정에서 MSP 파트너의 AWS 계정에 있는 Amazon S3 버킷으로 AMI를 내보내고 MSP 파트너가 소유한 새 KMS 키로 S3 버킷을 암호화합니다. MSP 파트너의 AWS 계정에서 AMI를 복사하고 시작합니다.
더보기

Answer: B

A(X) : '공개적'이라는 키워드가 애초에 보안과는 거리가 멈.

B(O) : 기존 KMS 키는 스냅샷을 암호화하는 데 사용되었기 때문에 MSP 파트너와 공유해도 괜찮음.

C(X) : 파트너의 KMS 키를 신뢰하면 파트너가 해당 키를 가지고 악의적인 용도로 사용할 때 문제가 됨.

D(X) : 파트너와 공유해야 하는데 파트너가 S3 버킷을 암호화하도록 냅둬버리면 파트너가 공유받는 입장이 아니라 내가 공유받는 입장이 되어버리는 역전현상이 벌어짐.

설명2:

AMI 스냅샷을 암호화하는 데 이미 사용되었기 때문에 기존 KMS 키를 MSP 외부 계정과 공유합니다.

Q81.솔루션 설계자는 AWS에 배포되는 새 애플리케이션을 위한 클라우드 아키텍처를 설계하고 있습니다. 처리할 작업 수에 따라 필요에 따라 애플리케이션 노드를 추가 및 제거하면서 프로세스가 병렬로 실행되어야 합니다. 프로세서 응용 프로그램은 상태 비저장입니다. 솔루션 설계자는 응용 프로그램이 느슨하게 연결되어 있고 작업 항목이 영구적으로 저장되어 있는지 확인해야 합니다.솔루션 설계자는 어떤 디자인을 사용해야 합니까?
A. 처리해야 하는 작업을 보낼 Amazon SNS 주제를 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 구성을 생성합니다. 시작 구성을 사용하여 Auto Scaling 그룹을 생성합니다. CPU 사용량에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹에 대한 조정 정책을 설정합니다.
B. 처리해야 하는 작업을 보관할 Amazon SQS 대기열을 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 구성을 생성합니다. 시작 구성을 사용하여 Auto Scaling 그룹을 생성합니다. Auto Scaling 그룹의 조정 정책을 설정하여 네트워크 사용량에 따라 노드를 추가 및 제거합니다.
C. 처리해야 하는 작업을 보관할 Amazon SQS 대기열을 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 템플릿을 생성합니다. 시작 템플릿을 사용하여 Auto Scaling 그룹을 생성합니다. SQS 대기열의 항목 수에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹에 대한 조정 정책을 설정합니다.
D. 처리해야 하는 작업을 보낼 Amazon SNS 주제를 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 템플릿을 생성합니다. 시작 템플릿을 사용하여 Auto Scaling 그룹을 생성합니다. SNS 주제에 게시된 메시지 수에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹에 대한 조정 정책을 설정합니다.
더보기

Answer: C

"처리해야 하는 작업을 보관할, 트랜잭션 삭제되는 문제Amazon SQS 대기열을 생성합니다.

컴퓨팅 애플리케이션에 대한 Amazon EC2 Auto Scaling 그룹을 생성합니다. SQS 대기열의 항목 수에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹에 대한 조정 정책을 설정합니다.

 AMI 시작템플릿 ->  Auto Scaling 그룹을 생성

Q82.회사는 AWS 클라우드에서 웹 애플리케이션을 호스팅합니다. 회사는 AWS Certificate Manager(ACM)로 가져온 인증서를 사용하도록 Elastic Load Balancer를 구성합니다. 각 인증서가 만료되기 30일 전에 회사 보안팀에 알려야 합니다.솔루션 설계자는 이 요구 사항을 충족하기 위해 무엇을 권장해야 합니까?
A. ACM에 규칙을 추가하여 인증서가 만료되기 30일 전부터 매일 Amazon Simple Notification Service(Amazon SNS) 주제에 사용자 지정 메시지를 게시합니다.
B. 30일 이내에 만료되는 인증서를 확인하는 AWS Config 규칙을 생성합니다. AWS Config가 비준수 리소스를 보고할 때 Amazon Simple Notification Service(Amazon SNS)를 통해 사용자 지정 알림을 호출하도록 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다.
C. AWS Trusted Advisor를 사용하여 30일 이내에 만료되는 인증서를 확인합니다. 상태 변경 확인에 대한 Trusted Advisor 지표를 기반으로 하는 Amazon CloudWatch 경보를 생성합니다. Amazon Simple Notification Service(Amazon SNS)를 통해 사용자 지정 알림을 보내도록 경보를 구성합니다.
D. 30일 이내에 만료되는 모든 인증서를 감지하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다. AWS Lambda 함수를 호출하도록 규칙을 구성합니다. Amazon Simple Notification Service(Amazon SNS)를 통해 사용자 지정 알림을 보내도록 Lambda 함수를 구성합니다.
더보기

Answer: B

A(X) : 30일 전에 통보하랬지 맨날 통보하란 이야기는 없었음.

B(O) : AWS Config를 사용하여 만료 날짜가 가까워지는 인증서를 확인할 수 있습니다. 인증서 만료 날짜가 가까워지면 Amazon EventBridge를 사용하여 이메일 알림을 받을 수도 있습니다. https://aws.amazon.com/ko/premiumsupport/knowledge-center/acm-certificate-expiration/

C(X) : Trusted Advisor ""AWS 환경을 검사한 후 비용 절감, 시스템 가용성 및 성능 향상 또는 보안 격차를 해결할 기회가 있을 때 권장 사항을 제시

https://docs.aws.amazon.com/ko_kr/awssupport/latest/user/trusted-advisor.html

하는 서비스로 이 경우엔 해당 사항이 없음.

D(X) : EventBridge는 이벤트 발생을 감지해서 뭔가를 하는 서비스이지 이벤트 발생 전에 뭔가 감지해서 하는 게 아님

AWS Config : AWS 계정의 리소스 구성을 자세히 볼 수 있습니다 리소스 간에 어떤 관계가 있는지와 리소스가 과거에 어떻게 구성되었는지도 포함되므로, 시간이 지나면서 구성과 관계가 어떻게 변하는지 확인할 수 있습니다.

Q83.회사의 동적 웹 사이트는 미국의 온프레미스 서버를 사용하여 호스팅됩니다. 이 회사는 유럽에서 제품을 출시하고 있으며 새로운 유럽 사용자를 위해 사이트 로딩 시간을 최적화하려고 합니다. 사이트의 백엔드는 미국에 있어야 합니다. 제품이 며칠 안에 출시되며 즉각적인 솔루션이 필요합니다.솔루션 설계자는 무엇을 권장해야 합니까?
A. us-east-1에서 Amazon EC2 인스턴스를 시작하고 사이트를 마이그레이션합니다.
B. 웹사이트를 Amazon S3로 이동합니다. 지역 간 교차 지역 복제를 사용합니다.
C. 온프레미스 서버를 가리키는 사용자 지정 오리진과 함께 Amazon CloudFront를 사용합니다.
D. 온프레미스 서버를 가리키는 Amazon Route 53 지리 근접 라우팅 정책을 사용합니다.
더보기
Answer: C

 이제 사용자 지정 오리진을 사용하여 CloudFront 배포를 생성할 수 있습니다. 각 배포는 S3 또는 사용자 지정 오리진을 가리킬 수 있습니다. 이것은 다른 스토리지 서비스일 수도 있고 EC2 인스턴스 또는 Elastic Load Balancer와 같이 더 흥미롭고 동적인 것일 수도 있습니다.

A(X) : 유럽과 가까워야 하므로 us-east-1은 오답.

B(X) : 동적 웹 사이트라고 했으므로 S3가 들어가지 않음.

C(O) : CloudFront는 사용자 지정 오리진으로 온프레미스 서버를 가리킬 수 있음.

사용자 지정 출처는 웹 서버와 같은 HTTP 서버입니다. HTTP 서버는 Amazon EC2 인스턴스이거나 다른 곳에서 호스팅하는 HTTP 서버일 수 있습니다. 웹 사이트 엔드포인트로 구성된 Amazon S3 오리진도 사용자 지정 오리진으로 간주됩니다.자체 HTTP 서버를 사용자 지정 오리진으로 사용하는 경우 오리진에서 객체를 가져올 때 CloudFront에서 사용할 HTTP HTTPS 포트 및 프로토콜과 함께 서버의 DNS 이름을 지정합니다.

Q84.회사는 기존 3계층 웹 아키텍처의 비용을 절감하려고 합니다. 웹, 애플리케이션 및 데이터베이스 서버는 개발, 테스트 및 프로덕션 환경을 위한 Amazon EC2 인스턴스에서 실행됩니다. EC2 인스턴스의 평균 CPU 사용률은 사용량이 많은 시간에는 30%이고 사용량이 많지 않은 시간에는 10%입니다.프로덕션 EC2 인스턴스는 하루 24시간 실행됩니다. 개발 및 테스트 EC2 인스턴스는 매일 최소 8시간 동안 실행됩니다. 회사는 개발을 중지하고 사용하지 않을 때 EC2 인스턴스를 테스트하는 자동화를 구현할 계획입니다.어떤 EC2 인스턴스 구매 솔루션이 가장 비용 효율적으로 회사의 요구 사항을 충족합니까? ★
A. 프로덕션 EC2 인스턴스에 스팟 인스턴스를 사용합니다. EC2 인스턴스 개발 및 테스트에 예약 인스턴스를 사용합니다.
B. 프로덕션 EC2 인스턴스에 예약 인스턴스를 사용합니다. 개발 및 테스트 EC2 인스턴스에 온디맨드 인스턴스를 사용합니다.
C. 프로덕션 EC2 인스턴스에 스팟 블록을 사용합니다. EC2 인스턴스 개발 및 테스트에 예약 인스턴스를 사용합니다.
D. 프로덕션 EC2 인스턴스에 온디맨드 인스턴스를 사용합니다. 개발 및 테스트 EC2 인스턴스에 스팟 블록을 사용합니다.
더보기

Answer: B

A(X) : 하루 24시간 실행하는 프로덕션 EC2 인스턴스에 스팟 인스턴스는 적절치 않음. 스팟 인스턴스는 도중에 중지될 가능성이 높은 인스턴스에 더 적합.

B(O) : 1년 또는 3년 단위로 예약 인스턴스를 계약해서 사용하면 비용이 절감됨. 개발 및 테스트용 EC2 인스턴스는 매일 최소 8시간 이상 실행된다고 했으므로 그 이상 사용될 수 있어 Scheduled Reserved 인스턴스보다는 온디맨드 인스턴스를 사용하는 것이 더 적절함

C(X) : 스팟 블록은 기간이 정의된 스팟 인스턴스로 A와 같은 이유로 오답.

""기간이 정의된 스팟 인스턴스(스팟 블록이라고도 함) 2021 7 1일부로 신규 고객이 더 이상 사용할 수 없습니다

D(X) : 24시간 동안 사용할 EC2 인스턴스에는 예약 인스턴스 방식을 사용해 비용을 더 절감할 수 있음.

Q85.회사에 사용자가 웹 인터페이스 또는 모바일 앱을 통해 문서를 업로드하는 프로덕션 웹 애플리케이션이 있습니다. 새로운 규제 요구 사항에 따라. 새 문서는 저장 후에 수정하거나 삭제할 수 없습니다.
솔루션 설계자는 이 요구 사항을 충족하기 위해 무엇을 해야 합니까? ★
A. 업로드된 문서를 S3 버전 관리 및 S3 객체 잠금이 활성화된 Amazon S3 버킷에 저장합니다.
B. 업로드된 문서를 Amazon S3 버킷에 저장합니다. 문서를 주기적으로 보관하도록 S3 수명 주기 정책을 구성합니다.
C. 업로드된 문서를 S3 버전 관리가 활성화된 Amazon S3 버킷에 저장합니다. 모든 액세스를 읽기 전용으로 제한하도록 ACL을 구성합니다.
D. 업로드된 문서를 Amazon Elastic File System(Amazon EFS) 볼륨에 저장합니다. 읽기 전용 모드에서 볼륨을 마운트하여 데이터에 액세스합니다.
더보기

Answer: A

수정하거나 삭제할 수 없음 = S3 Object Lock.

S3 객체 잠금을 사용하면 write-once-read-many(WORM) 모델을 사용하여 객체를 저장할 수 있습니다. 객체 잠금은 고정된 시간 동안 또는 무기한으로 객체의 삭제 또는 덮어쓰기를 방지하는 데 도움이 될 수 있습니다.

Q86.회사에는 공통 Amazon RDS MySQL 다중 AZ DB 인스턴스에 자주 액세스해야 하는 여러 웹 서버가 있습니다. 회사는 사용자 자격 증명을 자주 교체해야 하는 보안 요구 사항을 충족하면서 웹 서버가 데이터베이스에 연결할 수 있는 안전한 방법을 원합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. AWS Secrets Manager에 데이터베이스 사용자 자격 증명을 저장합니다. 웹 서버가 AWS Secrets Manager에 액세스할 수 있도록 필요한 IAM 권한을 부여합니다.
B. AWS Systems Manager OpsCenter에 데이터베이스 사용자 자격 증명을 저장합니다. 웹 서버가 OpsCenter에 액세스할 수 있도록 필요한 IAM 권한을 부여합니다.
C. 안전한 Amazon S3 버킷에 데이터베이스 사용자 자격 증명을 저장합니다. 웹 서버가 자격 증명을 검색하고 데이터베이스에 액세스할 수 있도록 필요한 IAM 권한을 부여합니다.
D. 웹 서버 파일 시스템의 AWS Key Management Service(AWS KMS)로 암호화된 파일에 데이터베이스 사용자 자격 증명을 저장합니다. 웹 서버는 파일을 해독하고 데이터베이스에 액세스할 수 있어야 합니다.
더보기

Answer: A

사용자 자격 증명을 자주 바꿈 + 안전한 방법 = Secrets Manager.

AWS Secrets Manager는 애플리케이션, 서비스 및 IT 리소스에 액세스하는 데 필요한 암호를 보호하는 데 도움이 됩니다. 이 서비스를 사용하면 수명 주기 동안 데이터베이스 자격 증명, API 키 및 기타 암호를 쉽게 교체, 관리 및 검색할 수 있습니다.

Secrets Manager를 사용하면 암호를 포함하여 코드의 하드코딩된 자격 증명을 Secrets Manager에 대한 API 호출로 대체하여 프로그래밍 방식으로 암호를 검색할 수 있습니다. 이렇게 하면 비밀이 코드에 더 이상 존재하지 않기 때문에 코드를 검사하는 누군가가 비밀을 손상시킬 수 없습니다. 또한 지정된 일정에 따라 암호를 자동으로 교체하도록 Secrets Manager를 구성할 수 있습니다. 이를 통해 장기 비밀을 단기 비밀로 대체하여 손상 위험을 크게 줄일 수 있습니다.

Q87.회사는 Amazon API Gateway API에 의해 호출되는 AWS Lambda 함수에서 애플리케이션을 호스팅합니다. Lambda 함수는 고객 데이터를 Amazon Aurora MySQL 데이터베이스에 저장합니다. 회사에서 데이터베이스를 업그레이드할 때마다 Lambda 함수는 업그레이드가 완료될 때까지 데이터베이스 연결을 설정하지 못합니다. 그 결과 일부 이벤트에 대한 고객 데이터가 기록되지 않습니다.솔루션 설계자는 데이터베이스 업그레이드 중에 생성되는 고객 데이터를 저장하는 솔루션을 설계해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. Lambda 함수와 데이터베이스 사이에 위치하도록 Amazon RDS 프록시를 프로비저닝합니다. RDS 프록시에 연결하도록 Lambda 함수를 구성합니다.
B. Lambda 함수의 실행 시간을 최대로 늘립니다. 데이터베이스에 고객 데이터를 저장하는 코드에서 재시도 메커니즘을 만듭니다.
C. 고객 데이터를 Lambda 로컬 스토리지에 유지합니다. 고객 데이터를 데이터베이스에 저장하기 위해 로컬 스토리지를 스캔하도록 새로운 Lambda 함수를 구성합니다.
D. Amazon Simple Queue Service(Amazon SQS) FIFO 대기열에 고객 데이터를 저장합니다. 대기열을 폴링하고 고객 데이터를 데이터베이스에 저장하는 새 Lambda 함수를 생성합니다.
더보기

Answer: D

A,D의견이 분분한 문제

A.RDS 프록시는 새 데이터베이스 인스턴스가 작동할 때까지 대기하고 이 시간 동안 애플리케이션에서 받은 모든 요청을 유지함으로써 이러한 상황에서 애플리케이션 가용성을 향상시킬 수 있습니다. 최종 결과는 응용 프로그램이 기본 데이터베이스의 문제에 대해 더 탄력적이라는 것입니다. 이렇게 하면 DB가 정상으로 돌아올 때까지 솔루션이 데이터를 보유할 수 있습니다. RDS 프록시는 Lambda DB 간의 연결을 최적으로 활용하기 위한 것입니다. Lambda DB 컴퓨팅 리소스에 부담을 줄 수 있는 여러 연결을 동시에 열 수 있습니다.

D.잠시 고객 데이터를 저장하는 솔루션 = SQS. 손실될 위험이 있는 처리 대상 데이터를 잠시 보관하는 용도로는 SQS 주로 쓰인다고 보면 . 답은 D.

Q88.설문 조사 회사는 미국 지역에서 수년 동안 데이터를 수집했습니다. 이 회사는 크기가 3TB이고 계속 증가하는 Amazon S3 버킷에 데이터를 호스팅합니다. 이 회사는 S3 버킷이 있는 유럽 마케팅 회사와 데이터를 공유하기 시작했습니다. 회사는 데이터 전송 비용이 가능한 한 낮게 유지되기를 원합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까? ★★
A. 회사의 S3 버킷에서 요청자 지불 기능을 구성합니다.
B. 회사의 S3 버킷에서 마케팅 회사의 S3 버킷 중 하나로 S3 교차 리전 복제를 구성합니다.
C. 마케팅 회사가 회사의 S3 버킷에 액세스할 수 있도록 마케팅 회사에 대한 교차 계정 액세스를 구성합니다.
D. S3 Intelligent-Tiering을 사용하도록 회사의 S3 버킷을 구성합니다. S3 버킷을 마케팅 회사의 S3 버킷 중 하나와 동기화합니다.
더보기

Answer: A

 s3 요청자 지불 버킷을 사용하면 버킷 소유자 대신 요청자가 버킷에서 데이터 다운로드 및 요청 비용을 지불합니다. 버킷 소유자는 항상 데이터 저장 비용을 지불합니다.

"일반적으로 데이터를 공유하고 싶지만 데이터에 액세스하는 다른 사람과 관련된 요금을 부과하지 않으려면 버킷을 요청자 지불 버킷으로 구성합니다.

예를 들어 우편 번호 디렉터리, 참조 데이터 지리 공간 정보 또는 웹 크롤링 데이터와 같은 대용량 데이터 세트를 만들 때 요청자 지불 버킷을 사용할 수 있습니다."

모아둔 데이터를 요청하는 회사가 있을때는 요청자 지불 버킷을 사용

Q89.회사는 Amazon S3를 사용하여 기밀 감사 문서를 저장합니다. S3 버킷은 버킷 정책을 사용하여 최소 권한 원칙에 따라 감사 팀 IAM 사용자 자격 증명에 대한 액세스를 제한합니다. 회사 관리자는 S3 버킷에서 실수로 문서가 삭제되는 것을 걱정하고 더 안전한 솔루션을 원합니다.솔루션 설계자는 감사 문서를 보호하기 위해 무엇을 해야 합니까? ★★
A. S3 버킷에서 버전 관리 및 MFA 삭제 기능을 활성화합니다.
B. 각 감사 팀 IAM 사용자 계정의 IAM 사용자 자격 증명에 대해 다단계 인증(MFA)을 활성화합니다.
C. 감사 날짜 동안 s3:DeleteObject 작업을 거부하도록 감사 팀의 IAM 사용자 계정에 S3 수명 주기 정책을 추가합니다.
D. AWS Key Management Service(AWS KMS)
를 사용하여 S3 버킷을 암호화하고 감사 팀 IAM 사용자 계정이 KMS 키에 액세스하지 못하도록 제한합니다.
더보기

Answer: A

버전 관리는 실수로 삭제했을 때 이전 버전의 파일을 불러올 수 있도록 해줌.

Amazon S3의 버전 관리는 동일 버킷 내에 여러 개의 객체 변형을 보유하는 수단입니다. S3 버전 관리를 사용하면 버킷에 저장된 모든 버전의 객체를 모두 보존, 검색 및 복원할 수 있습니다.

MFA Delete는 함부로 삭제하지 못하도록 막음.

MFA Delete는 다음 작업에 대해 추가 인증을 요구합니다. ◎버킷의 버전 관리 상태 변경객체 버전 영구 삭제

Q90.회사에서 SQL 데이터베이스를 사용하여 공개적으로 액세스할 수 있는 영화 데이터를 저장하고 있습니다. 데이터베이스는 Amazon RDS 단일 AZ DB 인스턴스에서 실행됩니다. 스크립트는 데이터베이스에 추가된 새로운 영화의 수를 기록하기 위해 매일 임의의 간격으로 쿼리를 실행합니다. 스크립트는 업무 시간 동안의 최종 합계를 보고해야 합니다.회사의 개발 팀은 스크립트가 실행 중일 때 데이터베이스 성능이 개발 작업에 부적절하다는 것을 알아차렸습니다. 솔루션 설계자는 이 문제를 해결하기 위한 솔루션을 권장해야 합니다.
최소한의 운영 오버헤드로 이 요구 사항을 충족하는 솔루션은 무엇입니까?
A. DB 인스턴스를 다중 AZ 배포로 수정합니다.
B. 데이터베이스의 읽기 전용 복제본을 생성합니다. 읽기 전용 복제본만 쿼리하도록 스크립트를 구성합니다.
C. 개발 팀에게 매일 일과가 끝날 때 데이터베이스의 항목을 수동으로 내보내도록 지시합니다.
D. Amazon ElastiCache를 사용하여 스크립트가 데이터베이스에 대해 실행하는 일반적인 쿼리를 캐시합니다.
더보기

Answer: B

스크립트는 데이터베이스에 추가된 새로운 영화의 수를 기록하기 위해 매일 임의의 간격으로 쿼리를 실행합니다. = 스크립트는 쿼리를 수행하고 있음

'회사의 개발 팀은 스크립트가 실행 중일 데이터베이스 성능이 개발 작업에 부적절하다는 것을 알아차렸습니다.' = 스크립트 때문에 데이터베이스 성능이 떨어지고 있음.

따라서 쿼리가 너무 많이 수행되어서 데이터베이스 성능에 영향이 가는 상황입니다. 이런 경우 read replica 통해 쿼리 부하를 분산할 있습니다.

B(O) : 애플리케이션에서 읽기 전용 복제본으로 읽기 쿼리를 라우팅하여 기본 DB 인스턴스의 로드를 줄일 있습니다.

D(X)ElastiCache 애플리케이션 성능 향상 용도로 주로 사용됨.

Q91.회사에 VPC의 Amazon EC2 인스턴스에서 실행되는 애플리케이션이 있습니다. 애플리케이션 중 하나는 Amazon S3 API를 호출하여 객체를 저장하고 읽어야 합니다. 회사의 보안 규정에 따라 응용 프로그램의 트래픽은 인터넷을 통해 이동할 수 없습니다.어떤 솔루션이 이러한 요구 사항을 충족합니까? ★
A. S3 게이트웨이 엔드포인트를 구성합니다.
B. 프라이빗 서브넷에 S3 버킷을 생성합니다.
C. EC2 인스턴스와 동일한 AWS 리전에 S3 버킷을 생성합니다.
D. EC2 인스턴스와 동일한 서브넷에 NAT 게이트웨이를 구성합니다.
더보기

Answer: A

A.가장 적합한 솔루션은 S3 게이트웨이 엔드포인트를 구성하는 것입니다(옵션 A). 트래픽이 인터넷을 통과할 필요 없이 VPC S3 서비스 간에 안전한 비공개 연결을 제공합니다. S3 게이트웨이 엔드포인트를 통해 EC2 VPC 내에서 직접 S3 API에 액세스할 수 있으므로 트래픽이 인터넷을 통해 이동하지 못하도록 하는 보안 요구 사항을 충족합니다.

B. 프라이빗 서브넷에서 S3를 생성하면 버킷에 대한 직접적인 인터넷 액세스가 제한되지만 EC2와 S3 간의 직접적이고 안전한 연결은 제공되지 않습니다. 애플리케이션은 여전히 S3 API에 액세스하기 위해 인터넷을 통과해야 합니다.

C. EC2와 동일한 지역 S3를 생성한다고 해서 본질적으로 트래픽이 인터넷을 통과하는 것을 막지는 않습니다.

 

D. NAT 게이트웨이를 구성하면 프라이빗 서브넷의 리소스에 대한 아웃바운드 인터넷 연결이 허용되지만 S3 서비스에 대한 직접적이고 안전한 연결은 제공되지 않습니다. EC2에서 S3 API로의 트래픽은 여전히 인터넷을 통과합니다.

Q92.회사에서 Amazon S3 버킷에 민감한 사용자 정보를 저장하고 있습니다. 회사는 VPC 내부의 Amazon EC2 인스턴스에서 실행되는 애플리케이션 계층에서 이 버킷에 대한 보안 액세스를 제공하려고 합니다.
솔루션 설계자는 이를 달성하기 위해 어떤 단계 조합을 취해야 합니까? (2개를 선택하세요.) ★★
A. VPC 내에서 Amazon S3용 VPC 게이트웨이 엔드포인트를 구성합니다.
B. S3 버킷의 객체를 퍼블릭으로 만들기 위한 버킷 정책을 생성합니다.
C. VPC에서 실행되는 애플리케이션 계층으로만 액세스를 제한하는 버킷 정책을 생성합니다.
D. S3 액세스 정책으로 IAM 사용자를 생성하고 IAM 자격 증명을 EC2 인스턴스에 복사합니다.
E. NAT 인스턴스를 생성하고 EC2 인스턴스가 NAT 인스턴스를 사용하여 S3 버킷에 액세스하도록 합니다.

더보기

Answer: A,C

VPC 내부 ec2와 , s3 연결은 Gateway Endpoint , S3버킷정책으로 해결

A(O) : Gateway Endpoint는 퍼블릭 인터넷망을 통과하지 않는 전용 연결.

B(X) : 객체를 퍼블릭으로 만드는 것은 보안과는 거리가 멈.

C(O) : 버킷 정책으로 버킷에 대한 액세스 제어.

D(X) : 차라리 IAM 사용자 정책을 사용하는 것이 더 나음. 복사X

E(X) : Gateway Endpoint가 더 좋은 선택임.

Q93.회사는 MySQL 데이터베이스로 구동되는 온프레미스 애플리케이션을 실행합니다. 이 회사는 애플리케이션의 탄력성과 가용성을 높이기 위해 애플리케이션을 AWS로 마이그레이션하고 있습니다.
현재 아키텍처는 정상 작동 시간 동안 데이터베이스에서 많은 읽기 활동을 보여줍니다. 회사의 개발 팀은 4시간마다 프로덕션 데이터베이스의 전체 내보내기를 가져와 준비 환경의 데이터베이스를 채웁니다. 이 기간 동안 사용자는 허용할 수 없는 애플리케이션 대기 시간을 경험합니다. 개발 팀은 절차가 완료될 때까지 스테이징 환경을 사용할 수 없습니다.솔루션 설계자는 애플리케이션 지연 문제를 완화하는 대체 아키텍처를 권장해야 합니다. 또한 대체 아키텍처는 개발 팀이 지연 없이 스테이징 환경을 계속 사용할 수 있는 능력을 제공해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까? ★★
A. 프로덕션용 다중 AZ Aurora 복제본과 함께 Amazon Aurora MySQL을 사용합니다. mysqldump 유틸리티를 사용하는 백업 및 복원 프로세스를 구현하여 스테이징 데이터베이스를 채웁니다.
B. 프로덕션용 다중 AZ Aurora 복제본과 함께 Amazon Aurora MySQL을 사용합니다. 데이터베이스 복제를 사용하여 요청 시 스테이징 데이터베이스를 생성합니다.
C. 다중 AZ 배포 및 프로덕션용 읽기 전용 복제본과 함께 MySQL용 Amazon RDS를 사용합니다. 스테이징 데이터베이스에 대해 대기 인스턴스를 사용합니다.
D. 다중 AZ 배포 및 프로덕션용 읽기 전용 복제본과 함께 MySQL용 Amazon RDS를 사용합니다. mysqldump 유틸리티를 사용하는 백업 및 복원 프로세스를 구현하여 스테이징 데이터베이스를 채웁니다.
더보기

Answer: B

 RDS 비해 Aurora 항상 3개의 AZ 6개의 복제본(Replica) 보유하고 있으므로 A,B중 답이 존재 애플리케이션 가용성에 유리. A,B 하나가 .여기서 mysqldump 문젠데,

mysqldump 데이터백업에 많은 시간이 소요되는 방법 이기 때문에  B가 답

Q94.한 회사에서 사용자가 Amazon S3에 작은 파일을 업로드하는 애플리케이션을 설계하고 있습니다. 사용자가 파일을 업로드한 후 데이터를 변환하고 나중에 분석할 수 있도록 데이터를 JSON 형식으로 저장하려면 파일에 일회성 단순 처리가 필요합니다.각 파일은 업로드 후 최대한 빨리 처리해야 합니다. 수요는 다양할 것입니다. 어떤 날에는 사용자가 많은 수의 파일을 업로드합니다. 다른 날에는 사용자가 몇 개의 파일을 업로드하거나 파일을 업로드하지 않습니다.최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. Amazon S3에서 텍스트 파일을 읽도록 Amazon EMR을 구성합니다. 처리 스크립트를 실행하여 데이터를 변환합니다. 결과 JSON 파일을 Amazon Aurora DB 클러스터에 저장합니다.
B. Amazon SQS(Amazon Simple Queue Service) 대기열에 이벤트 알림을 보내도록 Amazon S3를 구성합니다. Amazon EC2 인스턴스를 사용하여 대기열에서 읽고 데이터를 처리합니다. 결과 JSON 파일을 Amazon DynamoDB에 저장합니다.
C. 이벤트 알림을 Amazon Simple Queue Service(Amazon SQS) 대기열로 보내도록 Amazon S3를 구성합니다. AWS Lambda 함수를 사용하여 대기열에서 읽고 데이터를 처리합니다. 결과 JSON 파일을 Amazon DynamoDB에 저장합니다.
D. 새 파일이 업로드될 때 Amazon Kinesis Data Streams에 이벤트를 보내도록 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다. AWS Lambda 함수를 사용하여 스트림에서 이벤트를 소비하고 데이터를 처리합니다. 결과 JSON 파일을 Amazon Aurora DB 클러스터에 저장합니다.
더보기

Answer: C

A(X) : EMR은 빅데이터 플랫폼 서비스라 사용 분야가 좀 다르고, 파일을 업로드하지 않는 날이나 업로드가 거의 없는 날에는 과도한 지출이 발생할 우려가 있음.

B(X) : 파일에 일회성 단순 처리가 필요하다고 했으므로 EC2 인스턴스로 처리하는 것보다는 Lambda가 더 지문 요구사항에 부합.

C(O) : 유일하게 마음에 걸리는 게 '업로드 후 최대한 빨리 처리'해야한다는 건데 가장 정답에 가까운 선택지로 보임. 업로드하는 파일 숫자도 변동이 심한데 이를 SQS 대기열에 집어넣음으로서 대처할 수 있고, Lambda 함수로 파일에 일회성 단순 처리가 가능하며 추가적인 SQS->Lambda->DynamoDB에 저장이라는 단순한 프로세스로 인해 운영 오버헤드도 매우 적음. DynamoDB JSON 파일을 지원

DynamoDB JSON을 사용하여 문서에 대한 기본 지원을 제공합니다. 따라서 DynamoDB Tags 같은 반정형 데이터를 저장하는 데 적합합니다. JSON 문서 안에서 데이터를 가져오고 조작할 수도 있습니다.

D(X) : 파일에 일회성 단순 처리가 필요하다고 했으므로 Kinesis Data Streams로 처리하는 것보다는 Lambda가 더 지문 요구사항에 부합. 또한 파일 업로드가 없거나 거의 없는 날에는 Kinesis 사용은 과도한 지출을 야기할 우려가 있음.

Q95.응용 프로그램을 사용하면 회사 본사의 사용자가 제품 데이터에 액세스할 수 있습니다. 제품 데이터는 Amazon RDS MySQL DB 인스턴스에 저장됩니다. 운영 팀은 애플리케이션 성능 저하를 격리하고 쓰기 트래픽에서 읽기 트래픽을 분리하려고 합니다. 솔루션 설계자는 애플리케이션의 성능을 신속하게 최적화해야 합니다.
솔루션 설계자는 무엇을 권장해야 합니까?
A. 기존 데이터베이스를 다중 AZ 배포로 변경합니다. 기본 가용 영역에서 읽기 요청을 제공합니다.
B. 기존 데이터베이스를 다중 AZ 배포로 변경합니다. 보조 가용 영역에서 읽기 요청을 제공합니다.
C. 데이터베이스에 대한 읽기 전용 복제본을 생성합니다. 컴퓨팅 및 스토리지 리소스의 절반을 원본 데이터베이스로 사용하여 읽기 전용 복제본을 구성합니다.
D. 데이터베이스에 대한 읽기 전용 복제본을 생성합니다. 원본 데이터베이스와 동일한 컴퓨팅 및 스토리지 리소스로 읽기 전용 복제본을 구성합니다.
더보기

Answer: D

복제가 효과적으로 작동하려면 각 읽기 전용 복제본에 원본 DB 인스턴스와 동일한 양의 컴퓨팅 및 스토리지 리소스가 있어야 합니다. 원본 DB 인스턴스를 확장하는 경우 읽기 전용 복제본도 확장합니다.

Q96.Amazon EC2 관리자는 여러 사용자가 포함된 IAM 그룹과 연결된 다음 정책을 생성했습니다.



이 정책의 효과는 무엇입니까?
A. 사용자는 us-east-1을 제외한 모든 AWS 리전에서 EC2 인스턴스를 종료할 수 있습니다.
B. 사용자는 us-east-1 리전에서 IP 주소가 10.100.100.1인 EC2 인스턴스를 종료할 수 있습니다.
C. 사용자는 사용자의 소스 IP가 10.100.100.254일 때 us-east-1 리전에서 EC2 인스턴스를 종료할 수 있습니다.
D. 사용자의 소스 IP가 10.100.100.254인 경우 사용자는 us-east-1 리전에서 EC2 인스턴스를 종료할 수 없습니다.
더보기

Answer: C

Allow문 해석 : 소스 IP 10.100.100.0/24인 모든 리소스(*)에 대해 ec2 인스턴스 종료를 허용.

Deny문 해석 : ec2 리전이 us-east-1이 아닌 모든 리소스(*)에 대해 ec2의 모든 작업을 불허.

정책은 us-east-1을 제외한 모든 지역에서 EC2 작업을 수행하는 것을 금지하고 소스 IP 10.100.100.0/24인 사용자만 인스턴스를 종료하도록 허용하기 때문입니다. 따라서 소스 IP 10.100.100.254인 사용자는 us-east-1 지역의 인스턴스를 종료할 수 있습니다.

Q97.회사에는 Microsoft Windows 공유 파일 저장소가 필요한 온프레미스에서 실행되는 대규모 Microsoft SharePoint 배포가 있습니다. 회사는 이 워크로드를 AWS 클라우드로 마이그레이션하기를 원하며 다양한 스토리지 옵션을 고려하고 있습니다. 저장소 솔루션은 액세스 제어를 위해 고가용성 및 Active Directory와 통합되어야 합니다.이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★★
A. Amazon EFS 스토리지를 구성하고 인증을 위해 Active Directory 도메인을 설정합니다.
B. 두 가용 영역의 AWS Storage Gateway 파일 게이트웨이에 SMB 파일 공유를 생성합니다.
C. Amazon S3 버킷을 생성하고 볼륨으로 탑재하도록 Microsoft Windows Server를 구성합니다.
D. AWS에서 Windows 파일 서버용 Amazon FSx 파일 시스템을 생성하고 인증을 위해 Active Directory 도메인을 설정합니다.
더보기

Answer: D

Windows 공유 파일 저장소 = FSx ,

Mcrosoft Active Directory AWS Directory Service :

AWS Managed Microsoft AD에 대한 패치 및 유지 관리. 기본적으로 각 디렉터리는 서로 다른 가용 영역에 설치된 두 개의 DC로 구성됩니다.

Windows 파일 서버용 FSx AWS Managed Microsoft AD와 통합하면 Windows 기반 애플리케이션 및 클라이언트(공유 파일 스토리지 활용) AWS로 쉽게 이동할 수 있는 완전 관리형 기본 Microsoft Windows 기반 서버 메시지 블록(SMB) 프로토콜 파일 시스템을 제공합니다.

Q98.이미지 처리 회사에는 사용자가 이미지를 업로드하는 데 사용하는 웹 응용 프로그램이 있습니다. 애플리케이션은 이미지를 Amazon S3 버킷에 업로드합니다. 회사는 객체 생성 이벤트를 Amazon Simple Queue Service(Amazon SQS) 표준 대기열에 게시하도록 S3 이벤트 알림을 설정했습니다. SQS 대기열은 이미지를 처리하고 결과를 이메일을 통해 사용자에게 보내는 AWS Lambda 함수의 이벤트 소스 역할을 합니다.
사용자는 업로드된 모든 이미지에 대해 여러 이메일 메시지를 수신하고 있다고 보고합니다. 솔루션 설계자는 SQS 메시지가 Lambda 함수를 두 번 이상 호출하여 여러 이메일 메시지를 생성한다고 판단합니다.
솔루션 설계자는 이 문제를 최소한의 운영 오버헤드로 해결하기 위해 무엇을 해야 합니까? ★
A. ReceiveMessage 대기 시간을 30초로 늘려 SQS 대기열에서 긴 폴링을 설정합니다.
B. SQS 표준 대기열을 SQS FIFO 대기열로 변경합니다. 메시지 중복 제거 ID를 사용하여 중복 메시지를 버리십시오.
C. SQS 대기열의 가시성 제한 시간을 함수 제한 시간과 일괄 처리 창 제한 시간의 합계보다 큰 값으로 늘립니다.
D. 처리 전에 메시지를 읽은 직후 SQS 대기열에서 각 메시지를 삭제하도록 Lambda 함수를 수정합니다.

 

더보기

Answer: C

A(X) : 폴링 대기 시간의 최대값은 20초입니다.

B(X) : 솔루션 설계자는 SQS메시지가 Lambda 함수를 이상 호출하여 여러 이메일 메시지를 생성하는 것이 문제의 원인이라고 보고 있음. , SQS 문제이지 이미지 생성 업로드까지는 문제가 없다는 .

C(O) : 하지만 소비자가 메시지를 삭제하기 전에 실패할 경우 제한 시간 초과가 만료되기 전에 시스템에서 해당 메시지에 대한 DeleteMessage 작업을 호출하지 않으면 다른 소비자가 메시지를 있게 되고 메시지가 다시 수신됩니다.

D(X) : Lambda 함수가 메시지 처리 삭제까지 담당하게 되므로 Lambda 비용이 추가로 발생하여 다른 방법보다 비용이 발생. 굳이 방법을 사용할 이유가 없음.

Q99.회사는 온프레미스 데이터 센터에서 호스팅되는 게임 애플리케이션을 위한 공유 스토리지 솔루션을 구현하고 있습니다. 회사는 Lustre 클라이언트를 사용하여 데이터에 액세스할 수 있는 기능이 필요합니다. 솔루션은 완전히 관리되어야 합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까? ★★
A. AWS Storage Gateway 파일 게이트웨이를 생성합니다. 필요한 클라이언트 프로토콜을 사용하는 파일 공유를 만듭니다. 응용 프로그램 서버를 파일 공유에 연결합니다.
B. Amazon EC2 Windows 인스턴스를 생성합니다. 인스턴스에 Windows 파일 공유 역할을 설치하고 구성합니다. 응용 프로그램 서버를 파일 공유에 연결합니다.
C. Amazon Elastic File System(Amazon EFS) 파일 시스템을 생성하고 Lustre를 지원하도록 구성합니다. 파일 시스템을 원본 서버에 연결합니다. 응용 프로그램 서버를 파일 시스템에 연결합니다.
D. Lustre 파일 시스템용 Amazon FSx를 생성합니다. 파일 시스템을 원본 서버에 연결합니다. 응용 프로그램 서버를 파일 시스템에 연결합니다.
더보기

Answer: D

A. AWS Storage Gateway 파일 게이트웨이는 Lustre 클라이언트 액세스를 지원하지 않습니다.

B. EC2 Windows 인스턴스에서 Windows 파일 공유를 생성하는 것은 Windows 기반 파일 공유에 적합하지만 필요한 Lustre 클라이언트 액세스를 제공하지 않습니다. Lustre는 고성능 컴퓨팅(HPC) 환경에서 주로 사용되는 고성능 병렬 파일 시스템입니다.

C. EFS는 기본적으로 Lustre 클라이언트 액세스를 지원하지 않습니다. EFS는 관리형 파일 스토리지 서비스이지만 범용 파일 스토리지용으로 설계되었으며 Lustre 워크로드에 최적화되어 있지 않습니다.

D. Amazon FSx for Lustre Lustre 클라이언트를 포함하여 고성능 컴퓨팅 워크로드에 최적화된 완전관리형 파일 시스템입니다. Lustre 클라이언트를 사용하여 관리되고 확장 가능한 방식으로 데이터에 액세스할 수 있는 기능을 제공합니다. 이 옵션을 선택함으로써 회사는 Lustre 클라이언트 액세스 요구 사항을 충족하면서 Amazon FSx for Lustre의 성능 및 관리 용이성으로부터 이점을 얻을 수 있습니다.

Q100.회사의 컨테이너화된 애플리케이션은 Amazon EC2 인스턴스에서 실행됩니다. 애플리케이션은 다른 비즈니스 애플리케이션과 통신하기 전에 보안 인증서를 다운로드해야 합니다. 회사는 거의 실시간으로 인증서를 암호화하고 해독할 수 있는 매우 안전한 솔루션을 원합니다. 또한 솔루션은 데이터가 암호화된 후 고가용성 스토리지에 데이터를 저장해야 합니다.최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. 암호화된 인증서에 대한 AWS Secrets Manager 암호를 생성합니다. 필요에 따라 인증서를 수동으로 업데이트합니다. 세분화된 IAM 액세스를 사용하여 데이터에 대한 액세스를 제어합니다.
B. Python 암호화 라이브러리를 사용하여 암호화 작업을 수신하고 수행하는 AWS Lambda 함수를 생성합니다. 함수를 Amazon S3 버킷에 저장합니다.
C. AWS Key Management Service(AWS KMS) 고객 관리형 키를 생성합니다. EC2 역할이 암호화 작업에 KMS 키를 사용하도록 허용합니다. 암호화된 데이터를 Amazon S3에 저장합니다.
D. AWS Key Management Service(AWS KMS)고객 관리형 키를 생성합니다. EC2 역할이 암호화 작업에 KMS 키를 사용하도록 허용합니다. 암호화된 데이터를 Amazon Elastic Block Store(Amazon EBS) 볼륨에 저장합니다.
더보기

Answer: C

고가용성 저장소 = S3. B,C 하나가 .

Lambda보다 KMS 암호화 해독에 적합. 정답은 C.