AWS Certified Machine Learning - Specialty (MLS-C01) 한글 덤프 및 해설
361
실전 문제
제공 중
이 AWS MLS-C01 시험 덤프는 최신 AWS Certified Machine Learning - Specialty 시험 형식을 기반으로 한 실제 문제와 상세한 설명을 포함합니다. AWS 시험 덤프를 검증된 솔루션과 함께 찾고 있다면 Cloud Pass 앱에서 10,000개 이상의 연습 문제를 시도해보세요.
중복 문제 없음
모든 문제는 고유하며 신중하게 선별되었습니다
최신 기출 문제
2025년 시험 패턴으로 정기적으로 업데이트
Sample Questions
실전 문제
Question 1
전 세계 18개국의 25,000대 CNC 기계에서 오는 머신 텔레메트리를 수집해야 하는 스마트 제조 분석 회사가 있으며 각 기계는 20초마다 최대 1 KB 크기의 55개 필드를 포함한 레코드를 전송하고, 회사는 Amazon Kinesis Data Streams로 이미 스트림을 수집 중이며 Amazon Athena에서 8~12개의 필드를 대상으로 조회할 시간 단위 요약본이 필요할 때 수집된 데이터를 변환하고 저장하는 데 필요한 커스터마이징을 최소화하는 솔루션은 무엇입니까?
Question 2
모바일 게임 회사의 데이터 사이언티스트는 Amazon DynamoDB 테이블(12 GB)에 인게임 구매 기록을 저장하고 Amazon S3(6 GB)에 JSON 파일로 광고 노출 로그를 저장하고 있으며, player_id 기준으로 이벤트 타임스탬프를 최대 5분 윈도우로 정렬해 단순 조인을 수행하여 하나의 학습 데이터세트를 준비해 Amazon SageMaker에서 전환 예측 모델을 최소한의 관리 오버헤드로 학습하려고 한다; 필요한 변환을 수행하기 위한 최적의 접근 방식은 무엇인가?
Question 3
핀테크 스타트업의 데이터 사이언티스트가 Amazon S3에 저장된 2TB 파케이 데이터에 대해 PySpark 3.3 스크립트를 사용해 7일 및 30일 롤링 윈도우 집계를 수행하여 학습/평가 데이터를 생성하고, 생성된 특징 수(예: 40, 80, 160)와 샘플 크기(예: 10만, 50만, 100만 레코드)를 변경하면서 각 실행의 사용 파라미터와 결과 평가 지표를 체계적으로 기록해 비교해야 하며, 장기 실행형 스파크 클러스터를 관리하지 않으면서 산출물이 S3에 버저닝되고 이후 SageMaker 학습 단계에서 쉽게 소비되길 원하는 상황에서, 모델에 최적의 데이터 변환을 결정하기 위해 어떤 접근 방식을 사용해야 합니까?
Question 4
한 디지털 미디어 스타트업이 Amazon S3에 시간 단위 파티션(s3://company-data/{csv,logs}/dt=YYYY-MM-DD-HH/)으로 저장된 3 TB 규모의 구조화된 CSV 구독 데이터와 1 TB 규모의 반구조화된 JSON 클릭스트림 로그를 보유하고 있으며, ML 스페셜리스트가 최소한의 운영 노력으로 서버 관리 없이 다음 날까지 두 데이터셋을 대상으로 ANSI SQL 임시 쿼리를 실행하고 사용량 기반 요금제를 원할 때, 이 데이터를 쿼리하는 가장 단순한 해결책은 무엇인가?
Question 5
한 승차공유 플랫폼이 신규 가입 운전자의 첫 30일 내 안전사고 발생 여부를 예측하는 운전자 위험 분류 모델을 만들려는 상황에서, 내부/외부 12개 소스의 로그를 조인해 약 8,200개의 원시 속성을 보유하게 되었고 많은 피처 쌍의 피어슨 상관계수가 0.95를 초과하며 전체 피처로 그래디언트 부스팅 분류기를 학습할 때 실행당 3시간 이상이 소요되고 과적합(학습 AUC 0.96, 검증 AUC 0.79)이 명확히 나타나기 때문에, 원본 데이터의 정보를 크게 잃지 않으면서 학습 시간을 크게 단축하고자 할 때 어떤 피처 엔지니어링 기법을 사용해야 합니까?