Q291.미디어 회사는 공개적으로 사용 가능한 스트리밍 비디오 콘텐츠에 Amazon CloudFront를 사용합니다. 이 회사는 액세스 권한이 있는 사용자를 제어하여 Amazon S3에서 호스팅되는 비디오 콘텐츠를 보호하려고 합니다. 회사의 일부 사용자는 쿠키를 지원하지 않는 사용자 지정 HTTP 클라이언트를 사용하고 있습니다. 회사의 일부 사용자는 액세스에 사용하는 하드코딩된 URL을 변경할 수 없습니다.
사용자에게 미치는 영향을 최소화하면서 이러한 요구 사항을 충족하는 서비스 또는 방법은 무엇입니까? (2개 선택)
★★★
A. 서명된 쿠키
B. 서명된 URL
C. AWS 앱싱크
D. JSON 웹 토큰(JWT)
E. AWS Secrets Manager
Answer: A, B
I thought that option A was totally wrong, because the question mentions "HTTP client does not support cookies". However it is right, along with option B. Check the link bellow, first paragraph.
A,B를 함께쓰자! 서명된쿠키, 서명된 URL
Q292.한 회사가 여러 소스에서 실시간 스트리밍 데이터를 수집할 새로운 데이터 플랫폼을 준비하고 있습니다. 회사는 Amazon S3에 데이터를 쓰기 전에 데이터를 변환해야 합니다. 회사는 SQL을 사용하여 변환된 데이터를 쿼리할 수 있는 기능이 필요합니다.이러한 요구 사항을 충족하는 솔루션은 무엇입니까? (두 가지를 선택하세요.)\\
★★★
A. Amazon Kinesis Data Streams를 사용하여 데이터를 스트리밍합니다. Amazon Kinesis Data Analytics를 사용하여 데이터를 변환합니다. Amazon Kinesis Data Firehose를 사용하여 Amazon S3에 데이터를 씁니다. Amazon Athena를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
B. Amazon Managed Streaming for Apache Kafka(Amazon MSK)를 사용하여 데이터를 스트리밍합니다. AWS Glue를 사용하여 데이터를 변환하고 데이터를 Amazon S3에 씁니다. Amazon Athena를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
C. AWS Database Migration Service(AWS DMS)를 사용하여 데이터를 수집합니다. Amazon EMR을 사용하여 데이터를 변환하고 Amazon S3에 데이터를 씁니다. Amazon Athena를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
D. Amazon Managed Streaming for Apache Kafka(Amazon MSK)
를 사용하여 데이터를 스트리밍합니다. Amazon Kinesis Data Analytics를 사용하여 데이터를 변환하고 데이터를 Amazon S3에 씁니다. Amazon RDS 쿼리 편집기를 사용하여 Amazon S3에서 변환된
데이터를 쿼리합니다.
E. Amazon Kinesis Data Streams를 사용하여 데이터를 스트리밍합니다. AWS Glue를 사용하여 데이터를 변환합니다. Amazon Kinesis Data Firehose를 사용하여 Amazon S3에 데이터를 씁니다. Amazon RDS 쿼리 편집기를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
Answer: A, B
b(o)파일변환하여 s3저장문제는 : glue정답확률이 높음
a(o) kinesis 서비스들을 활용한 정답
Kinesis Data Streams :다양한 소스의 데이터를 스트리밍하고 다른 AWS 서비스와 통합
Kinesis Data Analyics :SQL 또는 Apache Flink를 사용하여 데이터를 변환
Kinesis Data Firehore : s3 또는 다른대상에 데이터를 전송
여러 소스에서 실시간 스트리밍 데이터를 수집, 변환 및 쿼리하려면 Amazon Kinesis와 Amazon MSK가 적합한 솔루션입니다. Amazon Kinesis Data Streams는 다양한 소스의 데이터를 스트리밍하고 다른 AWS 서비스와 통합할 수 있습니다. Amazon Kinesis Data Analytics는 SQL 또는 Apache Flink를 사용하여 데이터를 변환할 수 있습니다. Amazon Kinesis Data Firehose는 Amazon S3 또는 다른 대상에 데이터를 쓸 수 있습니다. Amazon Athena는 표준 SQL을 사용하여 Amazon S3에서 변환된 데이터를 쿼리할 수 있습니다.
Amazon MSK는 데이터 스트리밍을 위한 인기 있는 오픈 소스 플랫폼인 Apache Kafka를 사용하여 데이터를 스트리밍할 수 있습니다. AWS Glue는 Apache Spark 또는 Python 스크립트를 사용하여 데이터를 변환하고 Amazon S3 또는 기타 대상에 데이터를 쓸 수 있습니다. Amazon Athena는 표준 SQL을 사용하여 Amazon S3에서 변환된 데이터를 쿼리할 수도 있습니다.
Q293.회사에는 수명이 다한 온프레미스 볼륨 백업 솔루션이 있습니다. 회사는 AWS를 새로운 백업 솔루션의 일부로 사용하고 AWS에 백업되는 동안 모든 데이터에 대한 로컬 액세스를 유지하려고 합니다. 회사는 AWS에 백업된 데이터가 자동으로 안전하게 전송되기를 원합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. AWS Snowball을 사용하여 온프레미스 솔루션에서 Amazon S3로 데이터를 마이그레이션합니다. 데이터에 대한 로컬 액세스를 제공하기 위해 Snowball S3 엔드포인트를 탑재하도록 온프레미스 시스템을 구성합니다.
B. AWS Snowball Edge를 사용하여 온프레미스 솔루션에서 Amazon S3로 데이터를 마이그레이션합니다. Snowball Edge 파일 인터페이스를 사용하여 온프레미스 시스템에 데이터에 대한 로컬 액세스를 제공합니다.
C. AWS Storage Gateway를 사용하고 캐시된 볼륨 게이트웨이를 구성합니다. 온프레미스에서 Storage Gateway 소프트웨어 어플라이언스를 실행하고 로컬로 캐시할 데이터 비율을 구성합니다. 데이터에 대한 로컬 액세스를 제공하기 위해 게이트웨이 스토리지 볼륨을 마운트합니다.
D. AWS Storage Gateway를 사용하고 저장된 볼륨 게이트웨이를 구성합니다. 온프레미스에서 Storage Gateway 소프트웨어 어플라이언스를 실행하고 게이트웨이 스토리지 볼륨을 온프레미스 스토리지에 매핑합니다. 데이터에 대한 로컬 액세스를 제공하기 위해 게이트웨이 스토리지 볼륨을 마운트합니다.
Answer: D
이 옵션은 온프레미스 소프트웨어 어플라이언스와 클라우드 기반 스토리지를 연결하여 온프레미스 IT 환경과 AWS 스토리지 인프라 간의 데이터 보안 기능과의 원활한 통합을 제공하는 서비스인 AWS Storage Gateway를 사용하기 때문에 가장 효율적입니다
Q294.Amazon EC2 인스턴스에서 호스팅되는 애플리케이션은 Amazon S3 버킷에 액세스해야 합니다. 트래픽이 인터넷을 통과하면 안 됩니다.솔루션 설계자는 이러한 요구 사항을 충족하기 위해 액세스를 어떻게 구성해야 합니까?
A. Amazon Route 53을 사용하여 프라이빗 호스팅 영역을 생성합니다.
B. VPC에서 Amazon S3에 대한 게이트웨이 VPC 엔드포인트를 설정합니다.
C. NAT 게이트웨이를 사용하여 S3 버킷에 액세스하도록 EC2 인스턴스를 구성합니다.
D. VPC와 S3 버킷 간에 AWS Site-to-Site VPN 연결을 설정합니다.
Answer: B
이 옵션은 인터넷 게이트웨이나 VPC용 NAT 장치 없이 Amazon S3에 대한 안정적인 연결을 제공하는 Amazon S3용 게이트웨이 VPC 엔드포인트를 사용하기 때문에 가장 효율적입니다. 게이트웨이 VPC 엔드포인트는 서비스의 접두사 목록을 사용하여 VPC에서 Amazon S3로 트래픽을 라우팅하고 AWS 네트워크를 벗어나지 않습니다. 이것은 인터넷을 통과하지 않는다는 요구 사항을 충족합니다.
Q295.전자상거래 회사는 테라바이트 규모의 고객 데이터를 AWS 클라우드에 저장합니다. 데이터에는 개인 식별 정보(PII)가 포함되어 있습니다. 회사는 세 가지 응용 프로그램에서 데이터를 사용하려고 합니다. 애플리케이션 중 하나만 PII를 처리해야 합니다. 다른 두 애플리케이션이 데이터를 처리하기 전에 PII를 제거해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★
A. Amazon DynamoDB 테이블에 데이터를 저장합니다. 각 애플리케이션이 요청하는 데이터를 가로채서 처리할 프록시 애플리케이션 계층을 생성합니다.
B. 데이터를 Amazon S3 버킷에 저장합니다. 요청 애플리케이션에 데이터를 반환하기 전에 S3 객체 Lambda를 사용하여 데이터를 처리하고 변환합니다.
C. 데이터를 처리하고 변환된 데이터를 3개의 개별 Amazon S3 버킷에 저장하여 각 애플리케이션이 고유한 사용자 지정 데이터 세트를 갖도록 합니다. 각 애플리케이션이 해당 S3 버킷을 가리키도록 합니다.
D. 데이터를 처리하고 변환된 데이터를 3개의 별도 Amazon DynamoDB 테이블에 저장하여 각 애플리케이션이 자체 사용자 지정 데이터 세트를 갖도록 합니다. 각 애플리케이션이 해당 DynamoDB 테이블을 가리키도록 합니다.
Answer: B
B is the right answer and the proof is in this link.
민감정보인데 MARCIE가 없으니까 걍 기본인 S3 -LAMBDA조합을 선택하자
Q296.개발 팀이 개발 VPC 내부의 Amazon EC2 인스턴스에서 호스팅되는 새로운 애플리케이션을 출시했습니다. 솔루션 설계자는 동일한 계정에 새 VPC를 생성해야 합니다. 새 VPC는 개발 VPC와 피어링됩니다. 개발용 VPC의 VPC CIDR 블록은 192.168.0.0/24입니다. 솔루션 설계자는 새 VPC에 대한 CIDR 블록을 생성해야 합니다. CIDR 블록은 개발 VPC에 대한 VPC 피어링 연결에 대해 유효해야 합니다.이러한 요구 사항을 충족하는 가장 작은 CIDR 블록은 무엇입니까? ★★
A. 10.0.1.0/32
B. 192.168.0.0/24
C. 192.168.1.0/32
D. 10.0.1.0/24
Answer: D
허용되는 블록 크기는 /28 넷마스크와 /16 넷마스크 사이입니다. CIDR 블록은 VPC와 연결된 기존 CIDR 블록과 겹치지 않아야 합니다.
192로 시작하지 않고 ~ /16~/28사이
보통 호스트주소가 32로 끝나면 답이아님
Q297.회사에서 5개의 Amazon EC2 인스턴스에 애플리케이션을 배포합니다. ALB(Application Load Balancer)는 대상 그룹을 사용하여 인스턴스에 트래픽을 분산합니다. 각 인스턴스의 평균 CPU 사용량은 대부분 10% 미만이며 때때로 65%까지 급증합니다.솔루션 설계자는 애플리케이션의 확장성을 자동화하는 솔루션을 구현해야 합니다. 솔루션은 아키텍처의 비용을 최적화하고 급증이 발생할 때 애플리케이션에 충분한 CPU 리소스가 있는지 확인해야 합니다.이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★★
A. CPUUtilization 지표가 20% 미만일 때 ALARM 상태로 들어가는 Amazon CloudWatch 경보를 생성합니다. ALB 대상 그룹의 EC2 인스턴스 중 하나를 종료하기 위해 CloudWatch 경보가 호출하는 AWS Lambda 함수를 생성합니다.
B. EC2 Auto Scaling 그룹을 생성합니다. 기존 ALB를 로드 밸런서로 선택하고 기존 대상 그룹을 대상 그룹으로 선택하십시오. ASGAverageCPUUtilization 지표를 기반으로 하는 대상 추적 조정 정책을 설정합니다. 최소 인스턴스를 2로, 원하는 용량을 3으로, 최대 인스턴스를 6으로, 목표 값을 50%로 설정합니다. Auto Scaling 그룹에 EC2 인스턴스를 추가합니다.
C. EC2 Auto Scaling 그룹을 생성합니다. 기존 ALB를 로드 밸런서로 선택하고 기존 대상 그룹을 대상 그룹으로 선택하십시오. 최소 인스턴스를 2로, 원하는 용량을 3으로, 최대 인스턴스를 6으로 설정합니다. Auto Scaling 그룹에 EC2 인스턴스를 추가합니다.
D. 두 개의 Amazon CloudWatch 경보를 생성합니다. 평균 CPUUtilization 지표가 20% 미만일 때 ALARM 상태로 들어가도록 첫 번째 CloudWatch 경보를 구성합니다. 평균 CPUUtilization 지표가 50%를 초과하면 ALARM 상태로 들어가도록 두 번째 CloudWatch 경보를 구성합니다. 이메일 메시지를 보내기 위해 Amazon Simple Notification Service(Amazon SNS) 주제에 게시하도록 경보를 구성합니다. 메시지를 받은 후 로그인하여 실행 중인 EC2 인스턴스 수를 줄이거나 늘립니다.
Answer: B
* Auto Scaling 그룹은 수요 변화에 맞춰 EC2 인스턴스를 자동으로 확장합니다. 이는 필요한 만큼의 인스턴스만 실행하여 비용을 최적화합니다.
* 대상 추적 조정 정책은 ASGAverageCPUUtilization 지표를 모니터링하고 평균 CPU를 약 50% 대상 값으로 유지하도록 조정합니다. 이렇게 하면 CPU가 급증하는 동안 리소스가 충분해집니다. => 충분한 리소스확인
* ALB와 대상 그룹은 재사용되므로 애플리케이션 아키텍처가 변경되지 않습니다. Auto Scaling 그룹은 기존 로드 밸런서 설정에 연결됩니다.
* 최소 2개에서 최대 6개의 인스턴스는 수요에 따라 필요에 따라 3개에서 6개 사이의 인스턴스를 확장할 수 있는 기능을 제공합니다.
* 단 3개의 인스턴스(원하는 용량)로 시작하고 필요에 따라 확장하여 비용을 최적화합니다. CPU 사용량이 떨어지면 원하는 용량에 맞게 인스턴스가 종료됩니다.
Q298.회사는 Application Load Balancer 뒤의 Amazon EC2 인스턴스에서 중요한 비즈니스 애플리케이션을 실행하고 있습니다. EC2 인스턴스는 Auto Scaling 그룹에서 실행되며 Amazon RDS DB 인스턴스에 액세스합니다.
EC2 인스턴스와 DB 인스턴스가 모두 단일 가용 영역에 있기 때문에 설계가 운영 검토를 통과하지 못했습니다. 솔루션 설계자는 두 번째 가용 영역을 사용하도록 설계를 업데이트해야 합니다.애플리케이션의 가용성을 높이는 솔루션은 무엇입니까?
A. 각 가용 영역에서 서브넷을 프로비저닝합니다. 두 가용 영역에 EC2 인스턴스를 배포하도록 Auto Scaling 그룹을 구성합니다. 각 네트워크에 대한 연결로 DB 인스턴스를 구성합니다.
B. 두 가용 영역에 걸쳐 확장되는 두 개의 서브넷을 프로비저닝합니다. 두 가용 영역에 EC2 인스턴스를 배포하도록 Auto Scaling 그룹을 구성합니다. 각 네트워크에 대한 연결로 DB 인스턴스를 구성합니다.
C. 각 가용 영역에서 서브넷을 프로비저닝합니다. 두 가용 영역에 EC2 인스턴스를 배포하도록 Auto Scaling 그룹을 구성합니다. 다중 AZ 배포를 위해 DB 인스턴스를 구성합니다.
D. 두 가용 영역에 걸쳐 확장되는 서브넷을 프로비저닝합니다. 두 가용 영역에 EC2 인스턴스를 배포하도록 Auto Scaling 그룹을 구성합니다. 다중 AZ 배포를 위해 DB 인스턴스를 구성합니다.
Answer: C
A subnet must reside within a single Availability Zone.
서브넷은 한개의 가용영역에서만 작용하므로 , a,c 중 답이 있다
Q299.연구소는 약 8TB의 데이터를 처리해야 합니다. 실험실에는 스토리지 하위 시스템에 대해 1밀리초 미만의 대기 시간과 최소 6GBps의 처리량이 필요합니다. Amazon Linux를 실행하는 수백 개의 Amazon EC2 인스턴스가 데이터를 배포하고 처리합니다.성능 요구 사항을 충족하는 솔루션은 무엇입니까?
A. NetApp ONTAP 파일 시스템용 Amazon FSx를 생성합니다. 각 볼륨의 계층화 정책을 ALL로 설정했습니다. 원시 데이터를 파일 시스템으로 가져옵니다. EC2 인스턴스에 fila 시스템을 탑재합니다.
B. 원시 데이터를 저장할 Amazon S3 버킷을 생성합니다. 영구 SSD 스토리지를 사용하는 Amazon FSx for Lustre 파일 시스템을 생성합니다. Amazon S3에서 데이터를 가져오고 내보내는 옵션을 선택합니다. EC2 인스턴스에 파일 시스템을 탑재합니다.
C. 원시 데이터를 저장할 Amazon S3 버킷을 생성합니다. 영구 HDD 스토리지를 사용하는 Amazon FSx for Lustre 파일 시스템을 생성합니다. Amazon S3에서 데이터를 가져오고 내보내는 옵션을 선택합니다. EC2 인스턴스에 파일 시스템을 탑재합니다.
D. NetApp ONTAP 파일 시스템용 Amazon FSx를 생성합니다. 각 볼륨의 계층화 정책을 NONE으로 설정합니다. 원시 데이터를 파일 시스템으로 가져옵니다. EC2 인스턴스에 파일 시스템을 탑재합니다.
Answer: B
NetApp ONTAP window - linux 데이터호환과 관련있으므로 A,D제외
HDD > SSD
원시 데이터를 저장할 Amazon S3 버킷 생성 영구 SSD 스토리지를 사용하는 Amazon FSx for Lustre 파일 시스템 생성 Amazon S3에서 데이터를 가져오고 내보내는 옵션 선택 EC2 인스턴스에 파일 시스템을 탑재합니다. Amazon FSx for Lustre는 밀리초 미만의 지연 시간과 최대 6GBps의 처리량을 위해 SSD 스토리지를 사용하고 Amazon S3에서 데이터를 가져오고 내보낼 수 있습니다. 또한 영구 SSD 스토리지를 선택하는 옵션은 데이터가 디스크에 저장되고 파일 시스템이 중지되어도 손실되지 않도록 합니다.
Q300.회사는 하드웨어 용량 제약으로 인해 온프레미스 데이터 센터에서 AWS 클라우드로 레거시 애플리케이션을 마이그레이션해야 합니다. 응용 프로그램은 하루 24시간, 주 7일 실행됩니다. 애플리케이션의 데이터베이스 스토리지는 시간이 지남에 따라 계속 증가합니다.이러한 요구 사항을 가장 비용 효율적으로 충족하기 위해 솔루션 설계자는 무엇을 해야 합니까? ★★
A. 애플리케이션 계층을 Amazon EC2 스팟 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon S3로 마이그레이션합니다.
B. 애플리케이션 계층을 Amazon EC2 예약 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon RDS 온디맨드 인스턴스로 마이그레이션합니다.
C. 애플리케이션 계층을 Amazon EC2 예약 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon Aurora 예약 인스턴스로 마이그레이션합니다.
D. 애플리케이션 계층을 Amazon EC2 온디맨드 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon RDS 예약 인스턴스로 마이그레이션합니다.
Answer: C
24시간 7일 모두 사용하면 스팟x , 예약하면 비용을 줄일 수있음
Aurora는 토리지 요구 사항에 맞게 자동으로 확장할 수 있으므로 시간이 지남에 따라 애플리케이션의 데이터베이스 스토리지 요구 사항을 수용할 수 있으며 예약으로 비용을 줄일 수 있음
Amazon Aurora는 MySQL 및 PostgreSQL과 호환되도록 설계된 확장성이 높은 클라우드 네이티브 관계형 데이터베이스 서비스이다. 증가하는 스토리지 요구 사항에 맞게 자동으로 확장할 수 있으므로 시간이 지남에 따라 애플리케이션의 데이터베이스 스토리지 요구 사항을 수용할 수 있다. 예약된 인스턴스 for Aurora를 사용함으로써 비용 절감은 장기적으로 상당할 것이다.
Q301.대학 연구소는 온프레미스 Windows 파일 서버에서 Amazon FSx for Windows File Server로 30TB의 데이터를 마이그레이션해야 합니다. 실험실에는 대학의 다른 많은 부서에서 공유하는 1Gbps 네트워크 링크가 있습니다.
실험실은 데이터 전송 성능을 최대화할 데이터 마이그레이션 서비스를 구현하려고 합니다. 그러나 실험실은 서비스가 다른 부서에 미치는 영향을 최소화하기 위해 사용하는 대역폭의 양을 제어할 수 있어야 합니다. 데이터 마이그레이션은 향후 5일 이내에 이루어져야 합니다.이러한 요구 사항을 충족하는 AWS 솔루션은 무엇입니까?
A. AWS 스노우콘
B. Amazon FSx 파일 게이트웨이
C. AWS 데이터싱크
D. AWS Transfer Family
Answer: C
옵션 A - AWS 스노우콘은 네트워크 대역폭이 제한되어 있을 때 물리적으로 데이터를 전송하기에 더 적합하며, 5일 이내에 전송을 완료하지 못할 것이다.
옵션 B - Amazon FSx File Gateway는 Amazon FSx에 저장된 파일에 대한 액세스만 제공하며 실제 온프레미스에서 FSx로의 데이터 마이그레이션은 수행하지 않습니다.
옵션 D - AWS Transfer Family는 FTP, FTPS 및 SFTP를 통해 파일을 전송하기 위한 것으로 30TB를 전송하고 진행 상황을 모니터링하기 위해 스크립팅이 필요할 수 있으며 대역폭 제어가 부족하다.
옵션C: 온프레미스 스토리지와 Windows File Server용 Amazon FSx 간의 대용량 데이터를 고속으로 복사할 수 있는 데이터 전송 서비스로 데이터 전송 시 사용되는 대역폭의 양을 제어할 수 있다.
Q302.회사에서 사용자가 모바일 장치에서 슬로우 모션 비디오 클립을 스트리밍할 수 있는 모바일 앱을 만들고자 합니다. 현재 이 앱은 비디오 클립을 캡처하고 원시 형식의 비디오 클립을 Amazon S3 버킷에 업로드합니다. 앱은 S3 버킷에서 직접 이러한 비디오 클립을 검색합니다. 그러나 비디오는 원시 형식이 큽니다.사용자는 모바일 장치에서 버퍼링 및 재생 문제를 겪고 있습니다. 회사는 운영 오버헤드를 최소화하면서 앱의 성능과 확장성을 극대화하는 솔루션을 구현하고자 합니다.이러한 요구 사항을 충족하는 솔루션 조합은 무엇입니까? (2개 선택)★★
A. 콘텐츠 전송 및 캐싱을 위해 Amazon CloudFront를 배포합니다.
B. AWS DataSync를 사용하여 다른 S3 버킷의 AW'S 지역 전체에 비디오 파일을 복제합니다.
C. Amazon Elastic Transcoder를 사용하여 비디오 파일을 보다 적절한 형식으로 변환합니다.
D. 콘텐츠 전송 및 캐싱을 위해 로컬 영역에 Amazon EC2 인스턴스의 Auto Sealing 그룹을 배포합니다.
E. Amazon EC2 인스턴스의 Auto Scaling 그룹을 배포하여 비디오 파일을 보다 적절한 형식으로 변환합니다.
Answer: A, C
Q303.회사에서 Amazon Elastic Container Service(Amazon ECS) 클러스터에 배포된 새 애플리케이션을 시작하고 ECS 작업에 Fargate 시작 유형을 사용하고 있습니다. 회사는 실행 시 애플리케이션에 대한 높은 트래픽이 예상되기 때문에 CPU 및 메모리 사용량을 모니터링하고 있습니다. 그러나 회사는 활용도가 감소할 때 비용을 절감하기를 원합니다.솔루션 설계자는 무엇을 추천해야 합니까?
A. Amazon EC2 Auto Scaling을 사용하여 이전 트래픽 패턴을 기반으로 특정 기간에 조정합니다.
B. AWS Lambda 함수를 사용하여 Amazon CloudWatch 경보를 트리거하는 메트릭 위반을 기반으로 Amazon ECS를 확장합니다.
C. 간단한 조정 정책과 함께 Amazon EC2 Auto Scaling을 사용하여 ECS 메트릭 위반이 Amazon CloudWatch 경보를 트리거할 때 조정합니다.
D. 대상 추적 정책과 함께 AWS Application Auto Scaling을 사용하여 ECS 메트릭 위반이 Amazon CloudWatch 경보를 트리거할 때 조정합니다.
Answer: D
This is running on Fargate, so EC2 scaling (A and C) is out. Lambda (B) is too complex.
a,c(x) Fargate 사용시 ec2 auto scaling 제외
ambda 함수x
대상추적정책과 함께 AWS Application Auto Scaling을 사용
Q304.한 회사가 최근 다른 AWS 리전에 재해 복구 사이트를 만들었습니다. 회사는 정기적으로 두 리전의 NFS 파일 시스템 간에 대량의 데이터를 주고 받아야 합니다.최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. AWS DataSync를 사용하십시오.
B. AWS Snowball 디바이스를 사용합니다.
C. Amazon EC2에서 SFTP 서버를 설정합니다.
D. AWS 데이터베이스 마이그레이션 서비스(AWS DMS)를 사용합니다.
Answer: A
이 옵션은 온프레미스와 AWS 스토리지 서비스 간에 데이터 이동을 자동화하고 가속화하는 안전한 온라인 서비스인 AWS DataSync를 사용하기 때문에 가장 효율적입니다. 또한 DataSync를 사용하여 정기적으로 두 리전의 NFS 파일 시스템 간에 대량의 데이터를 주고받으며 최소한의 운영 오버헤드로 데이터 전송 프로세스를 단순화하고 가속화합니다. 이 솔루션은 최소한의 운영 오버헤드로 정기적으로 두 리전의 NFS 파일 시스템 간에 대량의 데이터를 주고받는 요구 사항을 충족합니다.
옵션 B는 대량의 데이터를 AWS 안팎으로 전송할 수 있는 물리적 디바이스인 AWS Snowball 디바이스를 사용하기 때문에 효율성이 떨어집니다. 그러나 이것은 장치의 수동 취급 및 배송을 필요로 하기 때문에 주기적인 데이터 전송 솔루션을 제공하지 않습니다.
옵션 C는 Amazon S33에 저장된 파일에 대한 보안 파일 전송 프로토콜(SFTP) 액세스를 제공하는 방법인 Amazon EC2에 SFTP 서버를 설정하기 때문에 효율성이 떨어집니다. 그러나 파일 전송을 수동으로 시작하고 모니터링해야 하므로 주기적인 데이터 전송 솔루션을 제공하지 않습니다.
옵션 D는 데이터베이스를 AWS로 빠르고 안전하게 마이그레이션하는 데 도움이 되는 서비스인 AWS DMS(AWS Database Migration Service)를 사용하기 때문에 효율성이 떨어집니다. 그러나 이것은 관계형 데이터베이스 및 비관계형 데이터 저장소만 지원하므로 NFS 파일 시스템용 데이터 전송 솔루션을 제공하지 않습니다.
Q305.회사는 AWS 클라우드에서 호스팅되는 게임 애플리케이션을 위한 공유 스토리지 솔루션을 설계하고 있습니다. 회사는 SMB 클라이언트를 사용하여 데이터에 액세스할 수 있는 기능이 필요합니다. 솔루션은 완전히 관리되어야 합니다.어떤 AWS 솔루션이 이러한 요구 사항을 충족합니까?
A. 탑재 가능한 파일 시스템으로 데이터를 공유하는 AWS DataSync 작업을 생성합니다. 파일 시스템을 애플리케이션 서버에 마운트하십시오.
B. Amazon EC2 Windows 인스턴스를 생성합니다. 인스턴스에 Windows 파일 공유 역할을 설치하고 구성합니다. 응용 프로그램 서버를 파일 공유에 연결합니다.
C. Windows 파일 서버 파일 시스템용 Amazon FSx를 생성합니다. 원본 서버에 파일 시스템을 연결합니다. 애플리케이션 서버를 파일 시스템에 연결하십시오.
D. Amazon S3버킷을 생성합니다. 애플리케이션에 IAM 역할을 할당하여 S3 버킷에 대한 액세스 권한을 부여합니다. S3 버킷을 애플리케이션 서버에 마운트합니다.
Answer: C
A(X): AWS DataSync 는 전송과관련(온프레이스-aws)
B(X) : EC2비용문제로 사용X
Amazon FSx for Windows File Server(Amazon FSx)는 서버 메시지 블록(SMB) 프로토콜을 사용하는 Windows Server에 구축된 완전 관리형, 고가용성 및 확장 가능한 파일 스토리지 솔루션입니다. 다른 중요한 엔터프라이즈 기능 중에서 Microsoft Active Directory 통합, 데이터 중복 제거 및 완전히 관리되는 백업을 허용합니다.
Q306.회사는 Amazon EC2 인스턴스에서 실행되는 지연 시간에 민감한 애플리케이션을 위해 인 메모리 데이터베이스를 실행하려고 합니다. 애플리케이션은 분당 100,000개 이상의 트랜잭션을 처리하며 높은 네트워크 처리량이 필요합니다. 솔루션 설계자는 데이터 전송 비용을 최소화하는 비용 효율적인 네트워크 설계를 제공해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까? ★★
A. 동일한 AWS 리전 내의 동일한 가용 영역에서 모든 EC2 인스턴스를 시작합니다. EC2 인스턴스를 시작할 때 클러스터 전략으로 배치 그룹을 지정합니다.
B. 동일한 AWS 지역 내의 다른 가용 영역에서 모든 EC2 인스턴스를 시작합니다. EC2 인스턴스를 시작할 때 파티션 전략으로 배치 그룹을 지정합니다.
C. Auto Scaling 그룹을 배포하여 네트워크 활용 목표에 따라 다른 가용 영역에서 EC2 인스턴스를 시작합니다.
D. 서로 다른 가용 영역에서 EC2 인스턴스를 시작하기 위해 단계 조정 정책으로 Auto Scaling 그룹을 배포합니다.
Answer: A
* 단일 AZ 내에서 인스턴스를 시작하고 클러스터 배치 그룹을 사용하면 네트워크 대기 시간이 가장 짧고 인스턴스 간 대역폭이 가장 높습니다. 이는 메모리 데이터베이스 및 처리량이 많은 애플리케이션의 성능을 최대화합니다.
Q307.주로 온프레미스에서 애플리케이션 서버를 실행하는 회사가 AWS로 마이그레이션하기로 결정했습니다. 회사는 온프레미스에서 iSCSI(Internet Small Computer Systems Interface) 스토리지를 확장해야 할 필요성을 최소화하려고 합니다. 회사는 최근에 액세스한 데이터만 로컬에 저장하기를 원합니다.회사는 이러한 요구 사항을 충족하기 위해 어떤 AWS 솔루션을 사용해야 합니까? ★★
A. Amazon S3 파일 게이트웨이
B. AWS Storage Gateway 테이프 게이트웨이
C. AWS Storage Gateway 볼륨 게이트웨이 저장 볼륨
D. AWS Storage Gateway 볼륨 게이트웨이 캐시 볼륨
Answer: D
AWS Storage Gateway Volume Gateway는 iSCSI 스토리지에 연결하기 위한 두 가지 구성, 즉 저장 볼륨과 캐시 볼륨을 제공합니다.
저장된 볼륨 구성 :전체 데이터 세트를 온프레미스에 저장하고 데이터를 AWS에 비동기식으로 백업합니다.
캐싱된 볼륨 구성: 최근에 액세스한 데이터를 온프레미스에 저장하고 나머지 데이터는 Amazon S3에 저장합니다.
Q308.회사에 통합 결제를 사용하는 여러 AWS 계정이 있습니다. 이 회사는 90일 동안 여러 개의 활성 고성능 Amazon RDS for Oracle 온디맨드 DB 인스턴스를 실행합니다. 회사의 재무 팀은 통합 결제 계정 및 기타 모든 AWS 계정에서 AWS Trusted Advisor에 액세스할 수 있습니다.재무 팀은 적절한 AWS 계정을 사용하여 RDS에 대한 Trusted Advisor 확인 권장 사항에 액세스해야 합니다. 재무팀은 적절한 Trusted Advisor 수표를 검토하여 RDS 비용을 줄여야 합니다.이러한 요구 사항을 충족하기 위해 재무 팀은 어떤 조합의 단계를 수행해야 합니까? (2개 선택) ★★
A. RDS 인스턴스가 실행 중인 계정의 Trusted Advisor 권장 사항을 사용합니다.
B. 통합 결제 계정의 Trusted Advisor 권장 사항을 사용하여 모든 RDS 인스턴스 확인을 동시에 확인합니다.
C. Amazon RDS 예약 인스턴스 최적화에 대한 Trusted Advisor 검사를 검토합니다.
D. Amazon RDS유휴 DB 인스턴스에 대한 Trusted Advisor 검사를 검토합니다.
E. Amazon Redshift 예약 노드 최적화에 대한 Trusted Advisor 검사를 검토합니다.
Answer: B, D
A(X): 전체 RDS 검토필요 -> B(O)
C(X):90일 -> 예약인스턴스 제회
D(O)유후도 검사필요
E(X) : Redshift 는 Trusted Advisor 검사XQ309.솔루션 설계자는 스토리지 비용을 최적화해야 합니다. 솔루션 설계자는 더 이상 액세스하지 않거나 거의 액세스하지 않는 Amazon S3 버킷을 식별해야 합니다.최소한의 운영 오버헤드로 이 목표를 달성할 수 있는 솔루션은 무엇입니까?
A. 고급 활동 메트릭에 대한 S3 Storage Lens 대시보드를 사용하여 버킷 액세스 패턴을 분석합니다.
B. AWS Management Console에서 S3 대시보드를 사용하여 버킷 액세스 패턴을 분석합니다.
C. 버킷에 대한 Amazon CloudWatch BucketSizeBytes 지표를 켭니다. Amazon Athena에서 메트릭 데이터를 사용하여 버킷 액세스 패턴을 분석합니다.
D. S3 객체 모니터링을 위해 AWS CloudTrail을 켭니다. Amazon CloudWatch Logs와 통합된 CloudTrail 로그를 사용하여 버킷 액세스 패턴을 분석합니다.
Answer:A
S3 Storage Lens는 객체 스토리지 사용량, 활동 추세 및 비용 최적화를 위한 권장 사항에 대한 종합적인 보기를 제공하는 완전관리형 S3 스토리지 분석 솔루션입니다
. Storage Lens를 사용하면 모든 S3 버킷에서 객체 액세스 패턴을 분석하고 자세한 지표와 보고서를 생성할 수 있습니다.
Q310.회사에서 인공 지능 및 기계 학습(AI/ML)을 연구하는 고객에게 데이터 세트를 판매합니다. 데이터 세트는 us-east-1 리전의 Amazon S3 버킷에 저장되는 형식이 지정된 대용량 파일입니다. 회사는 고객이 주어진 데이터 세트에 대한 액세스를 구매하는 데 사용하는 웹 애플리케이션을 호스팅합니다. 웹 애플리케이션은 Application Load Balancer 뒤의 여러 Amazon EC2 인스턴스에 배포됩니다. 구매 후 고객은 파일에 대한 액세스를 허용하는 S3 서명 URL을 받습니다.고객은 북미와 유럽 전역에 분산되어 있습니다. 회사는 데이터 전송과 관련된 비용을 줄이고 성능을 유지하거나 개선하고자 합니다.솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A. 기존 S3 버킷에서 S3 Transfer Acceleration을 구성합니다. 고객 요청을 S3 Transfer Acceleration 엔드포인트로안내합니다. 액세스 제어를 위해 S3 서명 URL을 계속 사용하십시오.
B. 기존 S3 버킷을 원본으로 사용하여 Amazon CloudFront 배포를 배포합니다. 고객 요청을 CloudFront URL로 전달합니다. 액세스 제어를 위해 CloudFront 서명 URL로 전환하십시오.
C. 버킷 사이에 S3 교차 리전 복제가 있는 eu-central-1 리전에서 두 번째 S3 버킷을 설정합니다. 가장 가까운 지역으로 고객 요청을 전달합니다. 액세스 제어를 위해 S3 서명 URL을 계속 사용하십시오.
D. 데이터세트를 최종 사용자에게 스트리밍할 수 있도록 웹 애플리케이션을 수정합니다. 기존 S3 버킷에서 데이터를 읽도록 웹 애플리케이션을 구성합니다. 애플리케이션에서 직접 액세스 제어를 구현합니다.
Answer: B
고객에게 가까이 고효율 CloudFront
Q311.한 회사에서 AWS를 사용하여 보험 견적을 처리할 웹 애플리케이션을 설계하고 있습니다. 사용자는 애플리케이션에서 견적을 요청합니다. 견적은 견적 유형별로 구분되어야 하며, 24시간 이내에 응답해야 하며 분실해서는 안 됩니다. 솔루션은 운영 효율성을 극대화하고 유지 보수를 최소화해야 합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. 견적 유형에 따라 여러 Amazon Kinesis 데이터 스트림을 생성합니다. 적절한 데이터 스트림으로 메시지를 보내도록 웹 애플리케이션을 구성합니다. Kinesis Client Library(KCL)를 사용하여 자체 데이터 스트림에서 메시지를 풀링하도록 애플리케이션 서버의 각 백엔드 그룹을 구성합니다.
B. 각 견적 유형에 대해 AWS Lambda 함수 및 Amazon Simple Notification Service(Amazon SNS) 주제를 생성합니다. 연결된 SNS 주제에 Lambda 함수를 구독합니다. 견적 요청을 적절한 SNS 주제에 게시하도록 애플리케이션을 구성합니다.
C. 단일 Amazon Simple Notification Service(Amazon SNS) 주제를 생성합니다. SNS 주제에 대한 Amazon Simple Queue Service(Amazon SQS) 대기열을 구독합니다. 견적 유형에 따라 적절한 SQS 대기열에 메시지를 게시하도록 SNS 메시지 필터링을 구성합니다. 자체 SQS 대기열을 사용하도록 각 백엔드 애플리케이션 서버를 구성합니다.
D. 데이터 스트림을 Amazon OpenSearch Service 클러스터로 전달하기 위해 견적 유형을 기반으로 여러 Amazon Kinesis Data Firehose 전달 스트림을 생성합니다. 적절한 전송 스트림으로 메시지를 보내도록 애플리케이션을 구성합니다. OpenSearch Service에서 메시지를 검색하고 그에 따라 처리하도록 애플리케이션 서버의 각 백엔드 그룹을 구성합니다.
Answer: C
24시간 이내에 응답 : SQS
단일 SNS 주제 만들기 , 견적 유형별로 별도의 SQS 대기열 구독SNS 메시지 필터링을 사용하여 메시지를 적절한 대기열로 보냅니다백엔드 서버가 해당 SQS 대기열을 폴링합니다
핵심 사항:
견적 요청은 24시간 이내에 손실 없이 처리해야 합니다
효율성을 극대화하고 유지보수를 최소화해야 함
견적 유형별로 구분된 요청
Q312.한 회사에 여러 Amazon EC2 인스턴스에서 실행되는 애플리케이션이 있습니다. 각 EC2 인스턴스에는 여러 Amazon Elastic Block Store(Amazon EBS) 데이터 볼륨이 연결되어 있습니다. 애플리케이션의 EC2 인스턴스 구성 및 데이터는 야간에 백업해야 합니다. 또한 애플리케이션은 다른 AWS 리전에서 복구 가능해야 합니다.
운영상 가장 효율적인 방식으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? ★★
A. 애플리케이션 EBS 볼륨의 야간 스냅샷을 예약하고 스냅샷을 다른 리전에 복사하는 AWS Lambda 함수를 작성하십시오.
B. 야간 백업을 수행하기 위해 AWS Backup을 사용하여 백업 계획을 생성합니다. 백업을 다른 리전에 복사합니다. 애플리케이션의 EC2 인스턴스를 리소스로 추가합니다.
C. 야간 백업을 수행하기 위해 AWS Backup을 사용하여 백업 계획을 만듭니다. 백업을 다른 리전에 복사합니다. 애플리케이션의 EBS 볼륨을 리소스로 추가합니다.
D. 애플리케이션 EBS 볼륨의 야간 스냅샷을 예약하고 스냅샷을 다른 가용 영역에 복사하는 AWS Lambda 함수를 작성합니다.
Answer: B
이러한 요구 사항을 충족하는 운영상 가장 효율적인 솔루션은 AWS Backup을 사용하여 야간 백업을 수행하고 백업을 다른 리전에 복사하는 백업 계획을 만드는 것입니다. 애플리케이션의 EBS 볼륨을 리소스로 추가하면 애플리케이션의 EC2 인스턴스 구성 및 데이터가 백업되고 백업을 다른 리전에 복사하면 애플리케이션을 다른 AWS 리전에서 복구할 수 있습니다.
EC2 인스턴스를 백업할 때 AWS Backup은 인스턴스에 연결된 모든 EBS 볼륨을 보호하고, 두 개를 제외한 원래 EC2 인스턴스의 모든 매개 변수를 저장하는 AMI에 연결합니다
Q313.회사가 AWS에서 모바일 앱을 구축하고 있습니다. 회사는 수백만 명의 사용자에게 도달 범위를 확장하려고 합니다. 회사는 승인된 사용자가 모바일 장치에서 회사의 콘텐츠를 볼 수 있도록 플랫폼을 구축해야 합니다.
이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 권장해야 합니까?
A. 퍼블릭 Amazon S3 버킷에 콘텐츠를 게시합니다. AWS Key Management Service(AWS KMS) 키를 사용하여 콘텐츠를 스트리밍합니다.
B. 모바일 앱과 AWS 환경 간에 IPsec VPN을 설정하여 콘텐츠를 스트리밍합니다.
C. Amazon CloudFront를 사용합니다. 스트리밍 콘텐츠에 서명된 URL을 제공합니다.
D. 모바일 앱과 AWS 환경 간에 AWS Client VPN을 설정하여 콘텐츠를 스트리밍합니다.
Answer: C
Amazon CloudFront는 짧은 지연 시간과 높은 전송 속도로 데이터, 비디오, 애플리케이션 및 API를 전 세계 고객에게 안전하게 전달하는 콘텐츠 전송 네트워크(CDN)입니다. CloudFront는 콘텐츠에 대한 인증된 액세스를 제공하는 서명된 URL을 지원합니다. 이 기능을 통해 회사는 콘텐츠에 액세스할 수 있는 사람과 기간을 제어하여 수백만 명의 사용자에게 안전하고 확장 가능한 솔루션을 제공할 수 있습니다.
Q314.회사에는 드물게 액세스하는 패턴으로 글로벌 영업 팀에서 사용하는 온프레미스 MySQL 데이터베이스가 있습니다. 영업팀은 데이터베이스의 가동 중지 시간을 최소화해야 합니다. 데이터베이스 관리자는 향후 더 많은 사용자를 예상하여 특정 인스턴스 유형을 선택하지 않고 이 데이터베이스를 AWS로 마이그레이션하려고 합니다.
솔루션 설계자는 어떤 서비스를 추천해야 합니까?
A. 아마존 오로라 MySQL
B. MySQL용 Amazon Aurora 서버리스
C. 아마존 레드시프트 스펙트럼
D. MySQL용 Amazon RDS
Answer: B
Amazon Aurora Serverless for MySQL은 애플리케이션 수요에 따라 자동으로 확장 또는 축소되는 완전관리형 자동 확장 관계형 데이터베이스 서비스입니다. 이 서비스는 고객이 데이터베이스 인스턴스를 프로비저닝할 필요 없이 고가용성, 내구성 및 보안과 같은 Amazon Aurora의 모든 기능을 제공합니다. Amazon Aurora Serverless for MySQL을 사용하면 증가한 트래픽을 수용할 수 있도록 데이터베이스가 자동으로 확장되도록 설계되었기 때문에 영업 팀은 다운타임을 최소화할 수 있습니다. 또한 이 서비스를 통해 고객은 사용한 용량에 대해서만 비용을 지불할 수 있으므로 자주 사용하지 않는 액세스 패턴에 대해 비용 효율적입니다. Amazon RDS for MySQL도 옵션이 될 수 있지만 고객이 인스턴스 유형을 선택해야 하고 데이터베이스 관리자는 증가하는 트래픽을 수용하기 위해 수동으로 인스턴스 크기를 모니터링하고 조정해야 합니다.
Q315.회사는 온프레미스 데이터 센터의 여러 애플리케이션에 영향을 미치는 위반을 경험했습니다. 공격자는 서버에서 실행 중인 맞춤형 애플리케이션의 취약점을 이용했습니다. 이 회사는 현재 Amazon EC2 인스턴스에서 실행되도록 애플리케이션을 마이그레이션하고 있습니다. 이 회사는 EC2 인스턴스의 취약성을 능동적으로 스캔하고 결과를 자세히 설명하는 보고서를 보내는 솔루션을 구현하려고 합니다.이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. AWS Shield를 배포하여 EC2 인스턴스의 취약점을 스캔합니다. 결과를 AWS CloudTrail에 기록하는 AWS Lambda 함수를 생성합니다.
B. Amazon Macie 및 AWS Lambda 함수를 배포하여 EC2 인스턴스의 취약점을 스캔합니다. 결과를 AWS CloudTrail에 기록합니다.
C. Amazon GuardDuty를 켭니다. GuardDuty 에이전트를 EC2 인스턴스에 배포합니다. 결과를 자세히 설명하는 보고서의 생성 및 배포를 자동화하도록 AWS Lambda 함수를 구성합니다.
D. Amazon Inspector를 켭니다. Amazon Inspector 에이전트를 EC2 인스턴스에 배포합니다. 결과를 자세히 설명하는 보고서의 생성 및 배포를 자동화하도록 AWS Lambda 함수를 구성합니다.
Answer: D
Amazon Inspector(Amazon 검사기):
* EC2 인스턴스의 활성 취약성 스캔을 수행합니다. 소프트웨어 취약성, 의도하지 않은 네트워크 접근성 및 기타 보안 문제를 찾습니다.
* 스캔을 수행하려면 EC2 인스턴스에 에이전트를 설치해야 합니다. 에이전트는 각 인스턴스에 배포되어야 합니다.
* 보안 위험 또는 취약점에 대한 발견 사항을 자세히 설명하는 예약 검사 보고서를 제공합니다. 이러한 보고서는 문제를 패치하거나 수정하는 데 사용할 수 있습니다.
* AWS 환경에서 보안 취약점 및 잘못된 구성을 사전에 감지하는 데 가장 적합합니다.
오답: AWS Shield
Q316.회사는 Amazon EC2 인스턴스를 사용하여 스크립트를 실행하여 Amazon Simple Queue Service(Amazon SQS) 대기열에서 메시지를 폴링하고 처리합니다. 이 회사는 대기열에 추가되는 점점 더 많은 수의 메시지를 처리할 수 있는 능력을 유지하면서 운영 비용을 절감하고자 합니다.이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 권장해야 합니까? ★★
A. 메시지를 더 빠르게 처리하려면 EC2 인스턴스의 크기를 늘리십시오.
B. 인스턴스가 충분히 활용되지 않을 때 Amazon EventBridge를 사용하여 EC2 인스턴스를 끕니다.
C. EC2 인스턴스의 스크립트를 적절한 런타임이 있는 AWS Lambda 함수로 마이그레이션합니다.
D. AWS Systems Manager Run Command
를 사용하여 요청 시 스크립트를 실행합니다
Answer: C
AWS 람다로 스크립트를 마이그레이션함으로써 서비스의 자동 확장 기능을 활용할 수 있다. AWS 람다는 워크로드의 크기에 맞게 리소스를 자동으로 확장한다. 메시지 수가 증가함에 따라 인스턴스를 프로비저닝하거나 관리할 걱정이 없어 운영 비용이 절감된다는 의미다
Q317.회사에서 레거시 애플리케이션을 사용하여 데이터를 CSV 형식으로 생성합니다. 레거시 애플리케이션은 출력 데이터를 Amazon S3에 저장합니다. 이 회사는 복잡한 SQL 쿼리를 수행하여 Amazon Redshift 및 Amazon S3에만 저장된 데이터를 분석할 수 있는 새로운 상용 기성품(COTS) 애플리케이션을 배포하고 있습니다. 그러나 COTS 애플리케이션은 레거시 애플리케이션이 생성하는 .csv 파일을 처리할 수 없습니다.
회사는 레거시 애플리케이션을 업데이트하여 다른 형식으로 데이터를 생성할 수 없습니다. 회사는 COTS 애플리케이션이 레거시 애플리케이션이 생성하는 데이터를 사용할 수 있도록 솔루션을 구현해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. 일정에 따라 실행되는 AWS Glue 추출, 변환 및 로드(ETL) 작업을 생성합니다. .csv 파일을 처리하고 처리된 데이터를 Amazon Redshift에 저장하도록 ETL 작업을 구성합니다.
B. Amazon EC2 인스턴스에서 실행되는 Python 스크립트를 개발하여 .csv 파일을 .sql 파일로 변환합니다. Cron 일정에서 Python 스크립트를 호출하여 출력 파일을 Amazon S3에 저장합니다.
C. AWS Lambda 함수와 Amazon DynamoDB 테이블을 생성합니다. S3 이벤트를 사용하여 Lambda 함수를 호출합니다. ETL(추출, 변환 및 로드) 작업을 수행하여 .csv 파일을 처리하고 처리된 데이터를 DynamoDB 테이블에 저장하도록 Lambda 함수를 구성합니다.
D. Amazon EventBridge
를 사용하여 매주 일정에 따라 Amazon EMR 클러스터를 시작합니다. 추출, 변환 및 로드(ETL) 작업을 수행하여 .csv 파일을 처리하고 처리된 데이터를 Amazon Redshift 테이블에 저장하도록 EMR 클러스터를 구성합니다.
Answer: A
AWS Glue는 .csv 파일을 비롯한 다양한 형식의 데이터를 처리하고 복잡한 SQL 쿼리를 지원하는 완전관리형 데이터 웨어하우스 서비스인 Amazon Redshift에 처리된 데이터를 저장할 수 있습니다. AWS Glue는 데이터 처리 및 로드 프로세스를 자동화할 수 있는 일정에 따라 ETL 작업을 실행할 수 있습니다.
Q318.한 회사가 최근 전체 IT 환경을 AWS 클라우드로 마이그레이션했습니다. 회사는 사용자가 적절한 변경 제어 프로세스를 사용하지 않고 과도한 크기의 Amazon EC2 인스턴스를 프로비저닝하고 보안 그룹 규칙을 수정하고 있음을 발견했습니다. 솔루션 설계자는 이러한 인벤토리 및 구성 변경 사항을 추적하고 감사하기 위한 전략을 고안해야 합니다.솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 조치를 취해야 합니까? (2개 선택)
A. AWS CloudTrail을 활성화하고 감사에 사용하십시오.
B. Amazon EC2 인스턴스에 대한 데이터 수명 주기 정책을 사용합니다.
C. AWS Trusted Advisor를 활성화하고 보안 대시보드를 참조합니다.
D. AWS Config를 활성화하고 감사 및 규정 준수를 위한 규칙을 생성합니다.
E. AWS CloudFormation 템플릿을 사용하여 이전 리소스 구성을 복원합니다.,D
Answer: A,D
A) AWS CloudTrail을 활성화하고 감사에 사용합니다. AWS CloudTrail은 API 호출 기록을 제공하며 EC2 인스턴스 및 보안 그룹에 대한 변경 사항을 감사하는 데 사용할 수 있습니다. 솔루션 설계자는 CloudTrail 로그를 분석하여 적절한 승인 없이 누가 대규모 인스턴스를 프로비저닝했거나 보안 그룹을 수정했는지 추적할 수 있습니다.
D) AWS Config를 활성화하고 감사 및 규정 준수를 위한 규칙을 생성합니다. AWS Config는 EC2 인스턴스 및 보안 그룹과 같은 리소스에 대한 구성 변경 사항을 기록할 수 있습니다. 솔루션 설계자는 특정 인스턴스 유형을 시작하거나 권한 없이 보안 그룹 포트를 여는 것과 같은 비준수 변경 사항을 모니터링하기 위해 AWS Config 규칙을 생성할 수 있습니다. AWS Config는 이러한 규칙 위반에 대해 경고합니다.
E(X) : AWS CloudFormation 보조지역의 인프라배포 자동화 DR
C(X) AWS Trusted Advisor:모범사례검사를 사용하여 aws환경을 지속적으로 평가하고, 모범사례와의 편차를 해결하기위한 조치를 권장
Q319.회사는 AWS 클라우드에 수백 개의 Amazon EC2 Linux 기반 인스턴스를 보유하고 있습니다. 시스템 관리자는 공유 SSH 키를 사용하여 인스턴스를 관리했습니다. 최근 감사 후 회사의 보안 팀은 모든 공유 키를 제거하도록 지시하고 있습니다. 솔루션 설계자는 EC2 인스턴스에 대한 보안 액세스를 제공하는 솔루션을 설계해야 합니다.
최소한의 관리 오버헤드로 이 요구 사항을 충족하는 솔루션은 무엇입니까?
A. AWS Systems Manager Session Manager를 사용하여 EC2 인스턴스에 연결합니다.
B. AWS Security Token Service(AWS STS)를 사용하여 온디맨드 방식으로 일회성 SSH 키를 생성합니다.
C. 배스천 인스턴스 집합에 대한 공유 SSH 액세스를 허용합니다. 배스천 인스턴스에서 SSH 액세스만 허용하도록 다른 모든 인스턴스를 구성합니다.
D. Amazon Cognito 사용자 지정 권한 부여자를 사용하여 사용자를 인증합니다. AWS Lambda 함수를 호출하여 임시 SSH 키를 생성합니다.
Answer: A
Session Manager는 완전히 관리되는 AWS Systems Manager 기능입니다. Session Manager를 사용하여 Amazon Elastic Compute Cloud(Amazon EC2) 인스턴스, 에지 장치, 온프레미스 서버 및 가상 머신(VM)을 관리할 수 있습니다. 대화형 원클릭 브라우저 기반 셸 또는 AWS Command Line Interface(AWS CLI)를 사용할 수 있습니다. Session Manager는 인바운드 포트를 열거나 배스천 호스트를 유지하거나 SSH 키를 관리할 필요 없이 안전하고 감사 가능한 노드 관리를 제공합니다.
또한 Session Manager를 사용하면 관리 노드에 대한 제어된 액세스, 엄격한 보안 관행, 노드 액세스 세부 정보가 포함된 완전히 감사 가능한 로그가 필요한 기업 정책을 준수하는 동시에 최종 사용자에게 관리 노드에 대한 간단한 원클릭 교차 플랫폼 액세스를 제공할 수 있습니다.
Q320.회사에서 Amazon EC2 인스턴스 플릿을 사용하여 온프레미스 데이터 소스에서 데이터를 수집하고 있습니다. 데이터는 JSON 형식이며 수집 속도는 최대 1MB/s입니다. EC2 인스턴스가 재부팅되면 진행 중인 데이터가 손실됩니다. 회사의 데이터 과학 팀은 거의 실시간으로 수집된 데이터를 쿼리하려고 합니다.
데이터 손실을 최소화하면서 확장 가능한 거의 실시간 데이터 쿼리를 제공하는 솔루션은 무엇입니까? ★★
A. Amazon Kinesis Data Streams에 데이터를 게시하고 Kinesis Data Analytics를 사용하여 데이터를 쿼리합니다.
B. Amazon Redshift를 대상으로 사용하여 Amazon Kinesis Data Firehose에 데이터를 게시합니다. Amazon Redshift를 사용하여 데이터를 쿼리합니다.
C. 수집된 데이터를 EC2 인스턴스 스토어에 저장합니다. Amazon S3를 대상으로 Amazon Kinesis Data Firehose에 데이터를 게시합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다.
D.수집된 데이터를 Amazon Elastic Block Store(Amazon EBS) 볼륨에 저장합니다. Redis용 Amazon ElastiCache에 데이터를 게시합니다. Redis 채널을 구독하여 데이터를 쿼리합니다.
Answer: A
회사의 요구사항에 대한 솔루션입니다. 아마존 키네시스 데이터 스트림에 데이터를 게시하면 최대 1MB/s의 수집 속도를 지원하고 실시간 데이터 처리를 제공할 수 있습니다. 키네시스 데이터 분석은 수집된 데이터를 실시간으로 짧은 대기 시간으로 조회할 수 있으며, 솔루션은 수집 속도 증가나 조회 요구를 수용하기 위해 필요에 따라 확장할 수 있습니다. 또한 키네시스 데이터 스트림은 기본적으로 최대 7일 동안 지속적인 데이터 저장소를 가지고 있기 때문에 이 솔루션은 EC2 인스턴스 재부팅 시 최소의 데이터 손실을 보장합니다.
'AWS > 자격증' 카테고리의 다른 글
[AWS] SAA -C03 DUMP 로 공부하자 10(351~380) (0) | 2024.08.17 |
---|---|
[AWS] SAA -C03 DUMP 로 공부하자 9(321~350) (0) | 2024.08.11 |
[AWS] SAA -C03 DUMP 로 공부하자 7(261~290) (0) | 2024.08.06 |
[AWS] SAA -C03 DUMP 로 공부하자 6(231~260) (0) | 2024.08.05 |
[AWS] SAA -C03 DUMP 로 공부하자 5(201~230) (0) | 2024.08.04 |