CloudPass LogoCloud Pass
AWSGoogle CloudMicrosoftCiscoCompTIADatabricks
Certifications
AWSGoogle CloudMicrosoftCiscoCompTIADatabricks
Microsoft AZ-104
Microsoft AZ-104

Practice Test #3

50개 문제와 100분 시간 제한으로 실제 시험을 시뮬레이션하세요. AI 검증 답안과 상세 해설로 학습하세요.

50문제100분700/1000합격 점수
기출 문제 보기

AI 기반

3중 AI 검증 답안 및 해설

모든 답안은 3개의 최고 AI 모델로 교차 검증하여 최고의 정확도를 보장합니다. 선택지별 상세 해설과 심층 문제 분석을 제공합니다.

GPT Pro
Claude Opus
Gemini Pro
선택지별 상세 해설
심층 문제 분석
3개 모델 합의 정확도

기출 문제

1
문제 1

VM1이라는 가상 머신이 포함된 Azure 구독이 있습니다. VM1은 하루 24시간 사용 가능한 기간 업무(line-of-business) 애플리케이션을 호스팅합니다. VM1에는 네트워크 인터페이스 1개와 managed disk 1개가 있습니다. VM1은 D4s v3 크기를 사용합니다. VM1에 대해 다음 변경을 계획하고 있습니다: ✑ 크기를 D8s v3로 변경합니다. ✑ 500-GB managed disk를 추가합니다. ✑ Puppet Agent extension을 추가합니다. ✑ Desired State Configuration Management를 사용하도록 설정합니다. 어떤 변경이 VM1에 다운타임을 발생시키나요?

Desired State Configuration(DSC) management를 사용하도록 설정(일반적으로 Azure Automation State Configuration/DSC를 통해)은 구성 관리 기능입니다. 이는 agent/extension 및 pull server 모델을 사용하여 게스트 OS에 구성을 적용합니다. 이는 일반적으로 VM이 실행 중인 상태에서 수행되며, 본질적으로 VM을 중지/할당 해제할 필요가 없습니다. DSC는 적용하는 구성에 따라 서비스(또는 OS)를 재시작할 수는 있지만, 관리 기능 자체를 활성화하는 행위는 시험에서 다운타임을 유발하는 것으로 기대되지 않습니다.

기존 Azure VM에 500-GB managed disk를 추가(attach)하는 것은 일반적으로 온라인 작업입니다. VM이 실행 중인 상태에서 새로운 managed data disk를 attach할 수 있으며, 플랫폼 차원에서 다운타임이 필요하지 않습니다. attach 후에는 게스트 OS 내부에서 디스크를 초기화/파티션/포맷해야 하는데, 이 또한 온라인으로 수행할 수 있습니다. 이는 AZ-104의 일반 포인트로, data disk attach는 보통 hot-add입니다.

VM 크기를 D4s v3에서 D8s v3로 변경하는 것은 리사이징 작업이며, Azure가 새로운 SKU를 지원하는 호스트에서 compute 리소스를 재할당할 수 있도록 VM을 중지(할당 해제)하고 재시작해야 하는 경우가 흔합니다. 이로 인해 VM1에서 실행 중인 워크로드에 다운타임이 발생합니다. 동일한 series 내에서도 용량 제약으로 인해 다른 하드웨어로 이동해야 할 수 있으므로, 다운타임이 예상되는 결과입니다.

Puppet Agent extension을 추가하는 것은 VM extension 배포를 통해 Azure VM Agent가 수행합니다. VM extension은 VM이 실행 중인 상태에서 설치 및 업데이트되도록 설계되었으며, 일반적으로 재부팅이나 할당 해제가 필요하지 않습니다. extension이 소프트웨어를 설치하고 구성에 따라 서비스를 재시작할 수는 있지만, extension을 추가하는 행위 자체는 AZ-104에서 다운타임을 유발하는 플랫폼 작업으로 간주되지 않습니다.

문제 분석

핵심 개념: 이 문제는 Azure VM 라이프사이클 작업과, 어떤 작업이 VM 재시작/할당 해제(다운타임)를 필요로 하는지 vs “hot” 변경(온라인 변경)인지 테스트합니다. AZ-104에서는 어떤 compute 변경이 온라인이고 어떤 변경이 VM을 중지해야 하는지 알아야 합니다. 정답이 맞는 이유: VM 크기를 D4s v3에서 D8s v3로 변경하는 것은 일반적으로 VM을 중지(할당 해제)한 다음 다시 시작해야 하며, Azure가 새로운 vCPU/메모리 할당을 지원하는 하드웨어로 VM을 이동할 수 있도록 해야 합니다. 동일한 VM family 내에서 리사이징하더라도, Azure는 종종 VM을 다른 호스트로 재할당해야 하며 이는 다운타임을 유발합니다. 24x7 기간 업무 워크로드의 경우 이는 중요한 가용성 고려 사항이며, Azure Well-Architected Framework(Reliability pillar)는 리사이징 같은 계획된 유지보수가 가용성에 영향을 주지 않도록 중복성(예: load balancer 뒤의 여러 인스턴스, Availability Zones/sets)을 갖춘 설계를 권장합니다. 주요 기능 및 모범 사례: - VM resize는 compute host 할당 변경이며, 일반적으로 stop/deallocate 작업을 트리거합니다. - 대상 크기가 현재 cluster/host에서 사용 불가능하면, Azure는 VM을 이동해야 하므로 다운타임이 확정됩니다. - 다운타임을 피하려면 scale up 대신 scale out(여러 VM)하거나, VM Scale Sets / 가용성 구성 요소를 사용합니다. 흔한 오해: - “같은 series로 resize하면 항상 온라인이다”: 사실이 아닙니다. Azure는 여전히 재할당이 필요할 수 있습니다. - “extension은 다운타임을 유발한다”: extension은 일반적으로 Azure VM Agent에 의해 설치되며 보통 재부팅이 필요하지 않습니다(다만 일부 extension 또는 구성에 따라 그럴 수 있음). 시험에서는 명시되지 않는 한 extension 설치는 비-다운타임으로 취급하는 것이 기대됩니다. 시험 팁: - 할당 해제가 필요한 작업을 암기하세요: VM SKU 리사이징은 대표적입니다. - disk attach/detach 및 대부분의 extension 설치는 일반적으로 온라인입니다. - 24/7 앱의 경우, 계획된 다운타임 작업을 처리하기 위한 HA 패턴(Availability Zones/sets, load balancing)을 언급하세요. 복습할 참고 자료: - Azure VM 리사이징 동작 및 할당 해제 요구 사항(Azure Virtual Machines 문서) - Azure Well-Architected Framework: Reliability

2
문제 2

참고: 이 질문은 동일한 시나리오를 제시하는 일련의 질문 중 일부입니다. 이 시리즈의 각 질문에는 명시된 목표를 충족할 수도 있는 고유한 솔루션이 포함되어 있습니다. 일부 질문 세트에는 정답이 둘 이상 있을 수 있으며, 다른 세트에는 정답이 없을 수도 있습니다. 이 섹션에서 질문에 답한 후에는 해당 질문으로 돌아갈 수 없습니다. 따라서 이러한 질문은 검토 화면에 표시되지 않습니다. Adatum이라는 Azure Directory (Azure AD) 테넌트와 Subscription1이라는 Azure Subscription이 있습니다. Adatum에는 Developers라는 그룹이 포함되어 있습니다. Subscription1에는 Dev라는 리소스 그룹이 포함되어 있습니다. Developers 그룹에 Dev 리소스 그룹에서 Azure logic apps를 만들 수 있는 권한을 제공해야 합니다. 솔루션: Subscription1에서 Developers 그룹에 DevTest Labs User 역할을 할당합니다. 이것이 목표를 충족합니까?

Yes는 오답입니다. 제안된 role은 일반적인 Azure resource deployment를 위해 설계된 것이 아니기 때문입니다. DevTest Labs User는 임의의 service인 Logic Apps를 만드는 것이 아니라, lab VM 사용과 같이 Azure DevTest Labs의 resource와 상호 작용하기 위한 용도입니다. Subscription1에 할당하더라도 Contributor와 같은 capability를 얻지는 않습니다. 목표를 충족하려면 Dev resource group에 Contributor와 같은 role을 할당하는 것이 적절합니다.

No가 정답인 이유는 DevTest Labs User role에 Azure Logic Apps를 만드는 데 필요한 permission이 포함되어 있지 않기 때문입니다. Logic App을 만들려면 Microsoft.Logic/workflows resource에 대한 write access가 필요하지만, 이는 해당 built-in role의 일부가 아닙니다. role이 subscription scope에 할당되어 있더라도, scope는 permission이 어디에 적용되는지를 결정할 뿐 어떤 action이 허용되는지를 결정하지는 않습니다. 따라서 Developers group은 여전히 Dev resource group에서 Logic Apps를 만들 수 없습니다.

문제 분석

핵심 개념: 이 문제는 올바른 scope에서 Azure RBAC role assignment를 테스트합니다. 특정 resource group에서 group이 Azure Logic Apps를 만들 수 있도록 하려면, 할당된 role에는 Dev resource group scope 이상에서 Microsoft.Logic/workflows/*와 같은 Logic App resource에 대한 write permission이 포함되어 있어야 합니다. 정답인 이유: DevTest Labs User role은 Logic Apps와 같은 Azure service에 대한 일반적인 resource creation permission을 부여하지 않습니다. 이 role은 Azure DevTest Labs 사용자가 lab 환경 내에서 virtual machine에 연결하고, 시작하고, 다시 시작하고, 사용하는 용도로 설계되었습니다. 따라서 Subscription1에 이 role을 할당하더라도 Developers group이 Dev resource group에서 Logic Apps를 만들 수는 없습니다. 주요 특징: - Logic Apps는 Microsoft.Logic provider 아래의 Azure resource이며 resource write permission이 필요합니다. - resource group scope의 Contributor와 같은 built-in role은 Logic Apps 생성을 허용합니다. - RBAC scope는 중요합니다. 적절한 role을 Dev resource group에 할당하는 것으로 충분하며, subscription level에 할당하는 것보다 최소 권한 원칙을 더 잘 따릅니다. 일반적인 오해: 흔한 실수는 "User"라는 단어가 들어가 있거나 개발 관련 이름을 가진 role이면 광범위한 deployment 권한을 부여한다고 가정하는 것입니다. DevTest Labs User는 일반적인 Azure resource deployment가 아니라 lab 사용에만 좁게 초점이 맞춰져 있습니다. 또 다른 오해는 subscription scope에서 role을 할당하면 role definition의 부족한 permission을 보완할 수 있다고 생각하는 것입니다. scope는 적용 범위를 넓힐 뿐, capability 자체를 늘리지는 않습니다. 시험 팁: AZ-104에서는 role definition과 assignment scope를 모두 평가해야 한다는 점을 기억하세요. 작업이 resource group에서 대부분의 resource type을 생성하거나 관리하는 것이라면, 문제가 더 제한적인 custom role을 명시하지 않는 한 Contributor가 흔히 기대되는 built-in role입니다. DevTest Labs, monitoring 또는 support와 관련된 role은 일반적으로 관련 없는 service에 대한 광범위한 create permission을 부여하지 않습니다.

3
문제 3

참고: 이 질문은 동일한 시나리오를 제시하는 일련의 질문 중 일부입니다. 이 시리즈의 각 질문에는 명시된 목표를 충족할 수 있는 고유한 솔루션이 포함되어 있습니다. 일부 질문 세트에는 정답이 둘 이상 있을 수 있으며, 다른 세트에는 정답이 없을 수도 있습니다. 이 섹션의 질문에 답한 후에는 해당 질문으로 돌아갈 수 없습니다. 따라서 이러한 질문은 검토 화면에 표시되지 않습니다. Windows Server 2016을 실행하는 VM1이라는 Azure virtual machine이 있습니다. 1시간 이내에 VM1의 System event log에 두 개를 초과하는 error event가 기록될 때 Azure에서 alert를 생성해야 합니다. 솔루션: Azure Log Analytics workspace를 만들고 data settings를 구성합니다. VM1에 Microsoft Monitoring Agent를 설치합니다. Azure Monitor에서 alert를 만들고 source로 Log Analytics workspace를 지정합니다. 이 목표를 충족합니까?

이 솔루션은 Log Analytics workspace와 Microsoft Monitoring Agent를 사용하여 VM1의 Windows System 이벤트 로그 항목을 Azure Monitor Logs로 수집하는 파이프라인을 올바르게 구축합니다. System 로그 데이터가 수집(ingestion)되면 Azure Monitor는 지난 1시간 동안 Error 수준 이벤트를 카운트하고 그 수가 2보다 클 때 트리거되는 scheduled query(log) alert를 만들 수 있습니다. workspace를 경고 소스로 지정하는 방식이 바로 로그 기반 경고가 평가되는 방식입니다. 따라서 1시간 창 내 System 오류 이벤트 수를 기준으로 경고해야 한다는 요구 사항을 충족합니다.

"No"라고 답하면 제안된 접근 방식이 요구된 경고를 생성할 수 없다는 의미가 되지만, 실제로는 가능합니다. Azure Monitor log alerts는 정확히 이 시나리오를 위해 설계되었습니다. Windows Event Logs는 기본 Azure metrics로 제공되지 않으므로, 올바른 방법은 이를 Log Analytics로 수집한 뒤 KQL로 쿼리하는 것입니다. 에이전트를 설치하고 이벤트 로그 수집을 구성하면 경고 규칙이 평가할 데이터가 존재하게 됩니다. 따라서 이 솔루션을 거부하는 것은 stated goal을 충족하는데도 불구하고 틀린 선택입니다.

문제 분석

핵심 개념: 이 문제는 Azure VM의 Windows Event Logs를 Azure Monitor Logs(Log Analytics)로 수집하고, 특정 이벤트(System 로그 오류)가 일정 시간 창 내에서 임계값을 초과해 발생할 때 트리거되는 로그 기반 경고를 만드는 방법을 평가합니다. 정답이 맞는 이유: Log Analytics workspace를 만들고 Windows Event Logs에 대한 데이터 수집을 구성하면 VM의 System 이벤트 로그 항목을 Azure Monitor Logs로 수집(ingestion)할 수 있습니다. Windows Server 2016 VM에 Microsoft Monitoring Agent(MMA)를 설치하는 것은(특히 클래식/레거시 구성에서) 이벤트 로그 데이터를 workspace로 전송하는 지원되는 방법입니다. 데이터가 workspace에 들어오면 Azure Monitor log alert rule이 KQL 쿼리를 실행하여 지난 1시간 동안 System 로그의 “Error” 수준 이벤트를 카운트하고, 그 수가 2를 초과하면 트리거할 수 있습니다. 따라서 workspace를 경고 소스로 사용하는 것은 요구 사항을 충족합니다. 주요 기능 / 구성: - 수집된 로그의 중앙 저장소로서 Log Analytics workspace(Azure Monitor Logs). - Windows Event Logs(System 로그, Error 수준)를 수집하도록 구성된 Data settings / data sources. - 이벤트 로그를 전달하기 위해 workspace에 연결된 Microsoft Monitoring Agent(MMA) 설치. - KQL을 사용하는 Azure Monitor log alert rule(Scheduled query rule). 예: EventLog == "System" 및 Level == "Error"로 필터링하고, 1h 동안의 count를 summarize한 뒤, 임계값 > 2. - 경고 규칙에서 Alert evaluation frequency(예: 5분마다)와 time window(1시간) 구성. 흔한 오해: - metric alerts가 Windows Event Log 항목을 직접 카운트할 수 있다고 가정하는 것; 이벤트 로그는 Log Analytics를 통한 로그 기반 경고가 필요합니다. - Activity Log alerts(컨트롤 플레인 이벤트)와 게스트 OS 이벤트 로그(데이터 플레인/VM OS 로그)를 혼동하는 것. - 로그 경고가 쿼리할 수 있도록 VM이 실제로 이벤트 로그를 workspace로 보내야 한다는 점(에이전트 + 데이터 수집 구성)을 잊는 것. 시험 팁: - 게스트 OS 로그(Windows Event Logs, syslog)에는 Log Analytics + log alerts를 사용합니다. - Activity Log alerts는 Azure 리소스 작업에 대한 것이며, VM System/Application 이벤트 로그용이 아닙니다. - 수집 파이프라인이 존재하는지 확인: agent(또는 AMA/DCR) + workspace + 쿼리 기반 경고. - 임계값/시간 창 요구 사항은 정의된 timespan에 대해 KQL summarize/count로 자연스럽게 매핑됩니다.

4
문제 4

참고: 이 문제는 동일한 시나리오를 제시하는 일련의 문제 중 일부입니다. 이 시리즈의 각 문제에는 제시된 목표를 충족할 수도 있는 고유한 솔루션이 포함되어 있습니다. 일부 문제 세트에는 정답이 둘 이상 있을 수 있으며, 다른 문제 세트에는 정답이 없을 수도 있습니다. 이 섹션의 문제에 답한 후에는 해당 문제로 돌아갈 수 없습니다. 따라서 이러한 문제는 검토 화면에 표시되지 않습니다. Windows Server 2016을 실행하는 VM1이라는 Azure virtual machine이 있습니다. 1시간 이내에 VM1의 System event log에 두 개를 초과하는 error event가 기록될 때 Azure에서 alert를 생성해야 합니다. 솔루션: Azure Log Analytics workspace를 만들고 data settings를 구성합니다. VM1에 Microsoft Monitoring Agent VM extension을 추가합니다. Azure Monitor에서 alert를 만들고 Log Analytics workspace를 source로 지정합니다. 이것이 목표를 충족합니까?

이 솔루션은 Log Analytics workspace를 생성하고 Microsoft Monitoring Agent VM extension을 설치하여 VM1을 Azure Monitor Logs에 올바르게 온보딩합니다. workspace의 데이터 설정을 구성해 Windows System event logs를 수집하면 오류 이벤트가 수집(ingest)되어 쿼리할 수 있는 상태가 됩니다. 그런 다음 Azure Monitor log alert가 KQL 쿼리를 실행하여 1시간 창에서 System 로그 오류 이벤트 수를 집계하고, 그 수가 2를 초과할 때 트리거되도록 할 수 있습니다. 따라서 1시간 내에 System 오류 이벤트가 2건을 초과하면 경고해야 한다는 요구 사항을 충족합니다.

"No"라고 답하면 제안된 접근 방식으로는 필요한 경고를 생성할 수 없다는 의미가 되지만, 적절히 구성하면 생성할 수 있습니다. Azure Monitor log alerts는 KQL을 사용해 Log Analytics workspace의 로그 데이터를 평가하도록 특별히 설계되어 있으며, 시간 창 내 Windows Event Log 항목을 카운트하는 시나리오도 포함됩니다. MMA extension이 설치되고 System 오류 이벤트가 수집되도록 설정되어 있다면, (1시간 내 오류 2건 초과) 경고 조건은 구현이 매우 간단합니다. 실패할 수 있는 경우는 이벤트 수집 또는 쿼리/시간 창이 잘못 구성된 경우뿐인데, 해당 솔루션에서는 그런 문제가 나타나지 않습니다.

문제 분석

핵심 개념: 이 문제는 Azure VM의 Windows Event Logs를 Azure Monitor Logs(Log Analytics)로 수집하고, 특정 이벤트(System 로그 오류)가 일정 시간 창 내에서 임계값을 초과할 때 트리거되는 로그 기반 경고를 만드는 방법을 평가합니다. 정답이 맞는 이유: Windows Event Log 항목(예: System 로그의 “Error” 이벤트)에 대해 경고를 생성하려면, Azure가 먼저 해당 이벤트를 쿼리 가능한 저장소로 수집(ingest)해야 합니다. Log Analytics workspace를 만들고 Windows Event Logs에 대한 데이터 수집을 구성하면 System 로그를 수집할 수 있습니다. VM1에 Microsoft Monitoring Agent(MMA) VM extension을 설치하면 VM이 workspace에 연결되고 구성된 이벤트 로그를 전송합니다. 데이터가 workspace에 들어오면 Azure Monitor log alert rule이 KQL 쿼리를 실행하여 지난 1시간 동안의 오류 이벤트 수를 집계하고, 그 수가 2를 초과할 때 트리거되도록 설정할 수 있어 요구 사항을 충족합니다. 주요 기능/구성: - 수집된 이벤트 데이터의 대상(destination)으로 Log Analytics workspace(Azure Monitor Logs) 사용. - Data settings / data sources: Windows Event Logs(System)에서 level = Error(또는 필요 시 특정 Event ID). - VM을 온보딩하고 로그를 workspace로 전송하기 위한 Microsoft Monitoring Agent(MMA) VM extension. - KQL을 사용하는 Azure Monitor log alert rule(scheduled query rule), 예: 최근 60분 동안의 System 오류 count > 2. - “1시간 이내” 요구 사항에 맞춘 경고 평가 주기(evaluation frequency)와 시간 창(time window) 정렬. 흔한 오해: - Metric alert가 Windows Event Logs를 직접 읽을 수 있다고 가정하는 것; 로그 수집 없이 직접 읽을 수 없습니다. - Azure Activity Log alert가 게스트 OS 이벤트에 적용된다고 생각하는 것; Activity Log는 Azure 컨트롤 플레인 작업에 대한 로그이며 Windows System 로그가 아닙니다. - VM이 Log Analytics에 연결되어야(에이전트/extension) 하고, 특정 이벤트 로그(System)가 데이터 수집에서 활성화되어야 한다는 점을 놓치는 것. 시험 팁: - 요구 사항이 게스트 OS 로그(Windows Event Logs, syslog)와 관련되면 Log Analytics + agent/extension을 사용합니다. - “Y 시간 내 X 이벤트”는 보통 “Azure Monitor log alert(scheduled query)에서 시간 범위에 대한 count()”로 접근합니다. - 올바른 로그 채널(System/Application/Security)이 수집되도록 구성했는지 확인합니다. - 컨트롤 플레인 로그(Activity Log)와 데이터 플레인/게스트 로그(Log Analytics)를 구분합니다.

5
문제 5

HOTSPOT - 가상 네트워크 서브넷에 가상 머신 5대를 배포할 계획입니다. 각 가상 머신에는 public IP address와 private IP address가 각각 하나씩 있습니다. 각 가상 머신에는 동일한 inbound 및 outbound 보안 규칙이 필요합니다. 필요한 network interface 및 network security group의 최소 개수는 얼마입니까? 답하려면, 답안 영역에서 적절한 옵션을 선택하십시오. 참고: 각 정답 선택은 1점입니다. Hot Area:

파트 1:

네트워크 인터페이스의 최소 개수: ______

네트워크 인터페이스의 최소 개수 = 5. Azure에서 각 VM은 subnet에 연결하고 private IP address를 받기 위해 최소 1개의 NIC가 필요합니다. public IP address는 별도의 NIC가 아니라, NIC의 IP configuration(또는 load balancer)에 연결(associated)되는 리소스입니다. 요구사항이 5개의 VM 각각이 private IP와 public IP를 모두 가져야 한다는 것이므로, 가장 단순하고 최소 구성은 VM당 NIC 1개에 private IP configuration 1개를 두고 여기에 public IP를 연결하는 것입니다. 다른 선택지가 틀린 이유: - 10, 15, 20 NIC는 VM당 여러 NIC를 사용한다는 의미입니다. 여러 NIC는 multi-homing, 트래픽 분리, 또는 NVA 설계 같은 시나리오에서 선택적으로 사용되지만, 여기서는 필요하지 않습니다. 문제는 최소를 묻고 있으며 추가 NIC가 필요하다는 어떤 조건도 제시되지 않았습니다.

파트 2:

네트워크 security group의 최소 개수: ______

네트워크 security group의 최소 개수 = 1. NSG는 subnet 및/또는 개별 NIC에 연결할 수 있습니다. 동일한 subnet 내의 모든 VM이 동일한 inbound 및 outbound security rule을 필요로 하는 경우, subnet에 단일 NSG를 적용할 수 있습니다. 이렇게 하면 해당 subnet의 모든 NIC/VM에 대해 일관된 rule set이 강제되며, 필요한 NSG의 최소 개수가 됩니다. 또한 관리 오버헤드와 VM 간 rule 불일치 위험을 줄입니다. 다른 선택지가 틀린 이유: - 2개의 NSG는 서로 다른 rule set(예: tier 분리) 또는 예외가 필요한 경우가 아니라면 불필요합니다. - 5개의 NSG(VM/NIC당 1개)는 동작할 수는 있지만 최소가 아니며 관리 복잡성을 증가시킵니다. - 10개의 NSG는 더 과도하며 요구사항으로 정당화되지 않습니다. 참고: 단일 NSG를 subnet 대신 각 NIC에 연결할 수도 있지만, 총 NSG는 여전히 1개입니다.

이동 중에도 모든 문제를 풀고 싶으신가요?

Cloud Pass를 다운로드하세요 — 모의고사, 학습 진도 추적 등을 제공합니다.

6
문제 6

다음 위치에 데이터가 포함된 Azure subscription이 있습니다: Name Type container1 Blob container share1 Azure files share DB1 SQL database Table1 Azure Table Export1이라는 Azure import/export job을 사용하여 데이터를 내보낼 계획입니다. Export1을 사용하여 내보낼 수 있는 데이터를 식별해야 합니다. 어떤 데이터를 식별해야 합니까?

DB1은 Azure SQL Database(PaaS)입니다. Azure Import/Export는 Azure Storage 계층에서 동작(스토리지 객체를 디스크로/에서 복사)하므로 SQL database를 내보내지 않습니다. SQL Database export는 일반적으로 bacpac(Export Data-tier Application), Azure Database Migration Service, replication 또는 기타 SQL 네이티브 backup/migration 접근을 사용합니다.

container1은 Azure Blob Storage의 Blob container입니다. Azure Import/Export export job은 Azure Blob storage의 데이터를 고객 제공 디스크 드라이브로 내보내고, 해당 드라이브를 Azure datacenter로 배송하는 방식을 지원합니다. 이는 네트워크 전송이 너무 느리거나 비현실적인 경우 대규모 blob 데이터셋을 오프라인으로 전송하는 서비스의 의도된 사용 방식과 일치합니다.

share1은 Azure Files share입니다. Azure Storage의 일부이지만, Import/Export export job은 Azure Files share 내보내기를 지원하지 않습니다. Azure Files 데이터를 이동하려면 일반적으로 SMB를 통한 AzCopy/robocopy, Azure File Sync 또는 규모와 오프라인 요구 사항에 따라 Data Box family 서비스를 사용합니다.

Table1은 Azure Table(Table storage)입니다. Import/Export는 해당 서비스에 대한 blob/object export 메커니즘이 아니므로 Table storage entity를 내보내지 않습니다. Table 데이터는 보통 Azure Storage SDK, Azure Data Factory 또는 기타 ETL/데이터 이동 도구를 사용하여 복사 프로세스를 작성해 내보냅니다.

문제 분석

핵심 개념: Azure Import/Export는 물리적 디스크 드라이브를 Azure datacenter로 배송하여 Azure Storage로/에서 대량의 데이터를 전송하는 서비스입니다. AZ-104에서는 storage 작업 및 데이터 이동 옵션의 일부로 출제됩니다. 정답이 맞는 이유: Export job(Export1)은 Azure Blob storage(Blob container)의 데이터를 고객 제공 드라이브로 내보내는 것을 지원합니다. 따라서 Blob container(container1)의 데이터는 Import/Export export job을 사용하여 내보낼 수 있습니다. 이 서비스는 Azure Storage account를 중심으로 설계되었으며, export 시나리오에서는 특히 Blob storage를 지원합니다. 주요 기능 및 모범 사례: - Export job은 네트워크 전송이 비현실적인 경우(매우 큰 데이터셋, 제한된 대역폭, 엄격한 전송 시간 창)에 사용됩니다. - Storage account와 내보낼 blob 데이터를 선택하면, Azure가 선택한 blob을 배송된 드라이브로 복사합니다. - 운영 고려 사항을 계획하세요: job 생성, 드라이브 준비, 배송 물류, chain-of-custody. 또한 Azure Well-Architected Framework 보안 원칙에 맞춰 암호화 및 액세스 제어(least privilege)도 고려하세요. - 많은 시나리오에서는 온라인 전송 도구(AzCopy, Azure Data Box, Storage account replication)가 더 적합할 수 있지만, Import/Export는 특정 오프라인 워크플로에서는 여전히 유효합니다. 흔한 오해: - Azure Files share(SMB/NFS)는 “storage”이므로 내보낼 수 있다고 흔히 생각하지만, Import/Export export job은 Azure Files share를 내보내지 않습니다. - Azure SQL Database 및 Azure Table storage는 데이터 서비스이므로 Import/Export job으로 내보내지 않습니다. 서비스별 export/migration 방법(예: SQL bacpac/backup/replication, 도구/SDK를 통한 Table 데이터 복사)이 필요합니다. 시험 팁: - 매핑을 암기하세요: Import/Export는 물리적 드라이브를 사용한 Azure Storage 데이터 이동이며, export는 “Blob”를 떠올리면 됩니다. - 선택지에 Azure Files, SQL Database, 또는 Table storage가 보이면, Import/Export export job에서 지원되지 않으며 다른 migration/export 접근이 필요하다고 예상하세요. - 도메인 정렬: 이는 “Implement and Manage Storage”에 해당합니다.

7
문제 7

DRAG DROP - Windows Server 2016을 실행하는 Server1이라는 온-프레미스 파일 서버가 있습니다. Azure file share가 포함된 Azure 구독이 있습니다. Azure File Sync Storage Sync Service를 배포하고 sync group을 생성합니다. Server1에서 Azure로 파일을 동기화해야 합니다. 다음 중 어떤 세 가지 작업을 순서대로 수행해야 합니까? 답하려면 작업 목록에서 적절한 작업을 답안 영역으로 이동하고 올바른 순서로 정렬하십시오. Select and Place:

파트 1:

아래 이미지에서 올바른 답(들)을 선택하세요.

question-image

정답은 A(통과)입니다. Azure File Sync에 대한 올바른 작업 순서는 명확하게 정의되어 있기 때문입니다: 1) Server1에 Azure File Sync agent를 설치합니다. 2) Storage Sync Service에 Server1을 등록합니다. 3) sync group에 server endpoint를 추가합니다(동기화할 Server1 및 로컬 경로 선택). 이것이 맞는 이유: agent는 Storage Sync Service와 통신하고 동기화 작업을 수행하는 데 필요합니다. server endpoint를 만들 때 서버를 선택하려면 먼저 등록이 필요합니다. server endpoint는 Server1의 특정 폴더를 sync group(따라서 Azure file share/cloud endpoint)에 실제로 연결하는 구성 요소입니다. 다른 선택지가 틀린 이유: Azure on-premises data gateway는 file sync와 관련이 없습니다. Recovery Services vault는 Azure Backup/ASR용이며 Azure File Sync용이 아닙니다. DFS Replication은 필요하지 않으며 다른 복제 기술입니다.

8
문제 8

Subscription1이라는 Azure 구독이 있습니다. Subscription1으로 전송해야 하는 5 TB의 데이터가 있습니다. Azure Import/Export job을 사용할 계획입니다. 가져온 데이터의 대상으로 무엇을 사용할 수 있습니까?

Azure Import/Export는 virtual machine의 OS disk, data disk 또는 file system으로 데이터를 직접 import하지 않습니다. 이 서비스는 가져온 데이터를 대상 위치로 Azure Storage account(Blob 또는 Files)에 기록합니다. VM에 데이터를 두려면 먼저 Azure Storage로 import한 다음, 거기에서 복사/마운트해야 합니다(예: Azure file share를 마운트하거나 Blob에서 다운로드).

Azure Cosmos DB는 database 서비스이며 Azure Import/Export job의 지원 대상이 아닙니다. Import/Export는 Cosmos DB에 document/record를 직접 쓸 수 없고, 파일을 Azure Storage(Blob 또는 Files)에 업로드만 합니다. Cosmos DB로 데이터를 로드하려면 일반적으로 먼저 Blob/Files로 import한 뒤 data ingestion 프로세스(예: Data Factory, SDK, 또는 bulk import tool)를 사용합니다.

Azure Import/Export는 Azure Storage로의 데이터 import를 지원하며, 구체적으로 Blob storage container 또는 Azure Files share로 가져올 수 있습니다. Azure File Storage(Azure Files)는 Azure Storage account 내의 기본 storage 대상이며 import job에서 명시적으로 지원됩니다. 이는 배송한 드라이브를 사용해 5 TB 데이터를 전송하고 Microsoft가 선택한 Azure Files share로 데이터를 업로드하는 시나리오와 일치합니다.

Azure File Sync Storage Sync Service는 Windows Server file share를 Azure Files(cloud endpoint)와 동기화하기 위한 synchronization/orchestration 서비스입니다. Import/Export가 데이터를 배치할 수 있는 storage 대상이 아닙니다. Import/Export는 Azure Files를 직접 대상으로 삼을 수 있으며, 이후 선택적으로 File Sync를 구성하여 해당 Azure file share를 on-prem server와 동기화할 수 있습니다.

문제 분석

핵심 개념: 이 문제는 Azure Import/Export가 가져온 데이터의 대상(목적지)으로 무엇을 지원하는지, 그리고 Import/Export 서비스와 호환되는 Azure storage 서비스가 무엇인지 이해하는지를 평가합니다. 정답이 맞는 이유: Azure Import/Export는 물리적 드라이브를 Azure datacenter로 배송하여 대용량 데이터를 이동하고, Microsoft가 해당 데이터를 Azure Storage account로 업로드하도록 설계되었습니다. Import job의 경우 지원되는 대상은 Azure Storage account 내의 Azure Blob storage와 Azure Files(file share)입니다. 따라서 Azure File Storage는 가져온 데이터의 유효한 대상입니다. 주요 기능 / 구성: - Azure Import/Export는 데이터를 Azure Storage account로 가져옵니다(컴퓨팅 또는 database로 직접 가져오지 않음). - 지원되는 import 대상: Azure Blob storage 및 Azure Files(Azure File Storage share). - 일반적인 흐름: WAImportExport tool로 디스크 준비 → Import job 생성 → 디스크 배송 → 지정된 storage account/container 또는 file share로 데이터 복사. 흔한 오해: - Import/Export가 VM의 disk 또는 file system으로 직접 import할 수 있다고 생각하는 것; 불가능하며 데이터는 먼저 Azure Storage에 저장됩니다. - PaaS database(예: Azure Cosmos DB)를 직접 채울 수 있다고 생각하는 것; Import/Export는 database 서비스에 쓰지 않습니다. - Azure File Sync(동기화 서비스)와 Azure Files(저장 대상)를 혼동하는 것. File Sync는 Azure Files를 cloud endpoint로 사용하지만, 그 자체가 import 대상은 아닙니다. 시험 팁: - 기억할 점: Import/Export의 대상은 Azure Storage(Blob 또는 Files)뿐입니다. - 선택지가 compute resource(VM) 또는 database(Cosmos DB)라면, Import/Export의 직접 대상이 아닙니다. - Azure File Sync는 on-prem server와 Azure Files를 동기화하기 위한 것이며, Import/Export가 데이터를 쓰는 위치가 아닙니다.

9
문제 9

Azure 가상 머신을 배포하는 데 사용되는 Template1이라는 Azure Resource Manager 템플릿이 있습니다. Template1에는 다음 텍스트가 포함되어 있습니다:

"location": {
    "type": "String",
    "defaultValue": "eastus",
    "allowedValues": [
        "canadacentral",
        "eastus",
        "westeurope",
        "westus" ]
}

Template1의 variables 섹션에는 다음 텍스트가 포함되어 있습니다: "location": "westeurope" Template1의 resources 섹션에는 다음 텍스트가 포함되어 있습니다:

"type": "Microsoft.Compute/virtualMachines",
"apiVersion": "2018-10-01",
"name": "[variables('vmName')]",
"location": "westeurope",

Template1을 사용하여 가상 머신을 West US 위치에 배포해야 합니다. 무엇을 해야 합니까?

정답입니다. VM 리소스의 "location"은 resources 섹션에서 "westeurope"로 명시적으로 하드코딩되어 있습니다. ARM은 해당 속성에 지정된 값으로 VM을 배포합니다. 이를 "westus"로 변경하는 것(또는 이상적으로 parameter를 참조하는 식으로 변경하는 것)이 보기 중 West US에 VM이 배포되도록 보장하는 유일한 방법입니다.

오답입니다. 배포 중 West US를 선택하는 것은(템플릿이 이를 사용하는 경우) parameters에 값을 제공하고 리소스 그룹 location을 설정할 수는 있지만, 하드코딩된 리소스 속성을 재정의하지는 않습니다. VM 리소스에 "location": "westeurope"가 있으므로 Portal에서 무엇을 선택하든 West Europe에 배포됩니다.

오답입니다. variables 섹션에 "location": "westeurope"가 정의되어 있더라도, VM 리소스는 [variables('location')]을 참조하지 않고 리터럴 문자열 "westeurope"를 사용합니다. 따라서 리소스 location 속성이 해당 variable을 사용하도록 변경되지 않는 한, variable을 "westus"로 바꿔도 VM의 배포 지역에는 영향이 없습니다.

문제 분석

핵심 개념: 이 문제는 ARM 템플릿이 리소스의 배포 지역을 어떻게 결정하는지 테스트합니다. ARM에서 리소스에 적용되는 실제 location은 리소스의 "location" 속성(또는 그 위치에 사용된 식)에서 가져오며, 리소스가 이를 명시적으로 참조하지 않는 한 parameter 또는 variable에서 가져오지 않습니다. 정답인 이유: Template1에서 가상 머신 리소스는 다음과 같이 명시적으로 설정되어 있습니다: "location": "westeurope" 이는 하드코딩된 리터럴 값이므로 location이라는 이름의 parameter와 location이라는 이름의 variable을 모두 무시(우선)합니다. VM을 West US에 배포하려면 리소스의 location 값을 "westus"로 변경해야 합니다(또는 더 나은 방법으로 "[parameters('location')]" 같은 식으로 바꾸고 배포 시 westus를 전달). 보기 중에서는 resources 섹션을 수정하는 것만이 VM이 West US에 생성되도록 보장합니다. 주요 기능 및 모범 사례: - Parameters는 배포 시 제공할 수 있는 입력을 정의하며, allowedValues는 유효한 입력을 제한합니다. 하지만 parameters는 참조될 때만 의미가 있습니다. - Variables는 템플릿 작성 시 편의를 위한 값이며, 역시 참조될 때만 의미가 있습니다. - 재사용 가능한 템플릿의 모범 사례는 리소스 location을 "[parameters('location')]"로 설정하고, 필요 시 resourceGroup().location 또는 선택한 기본값으로 defaultValue를 지정하는 것입니다. 이는 Azure Well-Architected Framework의 운영 우수성(반복 가능한 배포)과 신뢰성(환경 전반의 일관된 구성)에 부합합니다. 흔한 오해: - 배포 중(Portal/CLI) 지역을 선택하는 것은 제공하는 parameter 값과 리소스 그룹 location에만 영향을 주며, 하드코딩된 리소스 "location" 속성을 재정의하지 않습니다. - variable "location"을 변경해도 VM 리소스가 [variables('location')]을 사용하지 않기 때문에 도움이 되지 않습니다. 시험 팁: parameter/variable이 실제로 어디에서 사용되는지 항상 추적하세요. 리소스 속성이 리터럴(예: "westeurope")이면 배포 시 선택으로는 이를 재정의할 수 없습니다. [parameters('location')] 또는 [variables('location')] 같은 식이 있는지 확인하여 배포 시 제어 가능한 항목을 파악하세요.

10
문제 10

HOTSPOT - Azure Active Directory (Azure AD)의 하이브리드 배포가 있으며, 다음 표에 표시된 사용자가 포함되어 있습니다. 이름 | 유형 | 원본 User1 | Member | Azure AD User2 | Member | Windows Server Active Directory User3 | Guest | Microsoft account 사용자의 JobTitle 및 UsageLocation 특성을 수정해야 합니다. 어떤 사용자에 대해 Azure AD에서 해당 특성을 수정할 수 있습니까? 답하려면 답안 영역에서 적절한 옵션을 선택하십시오. 참고: 각 정답 선택은 1점입니다. 핫 영역:

파트 1:

JobTitle: ______

JobTitle은 일반적으로 identity source에서 마스터되는 사용자 프로필 attribute입니다. - User1 (Member, Source: Azure AD): Cloud-only 사용자이므로 Azure AD가 권한의 source입니다. Azure AD에서 JobTitle을 직접 편집할 수 있습니다. - User2 (Member, Source: Windows Server Active Directory): Azure AD Connect를 통해 동기화됩니다. 동기화된 사용자의 경우 JobTitle과 같은 프로필 attribute는 on-premises에서 마스터되며 Azure AD에서는 read-only입니다. JobTitle을 변경하려면 on-prem AD에서 업데이트한 뒤 동기화되도록 해야 합니다. - User3 (Guest, Source: Microsoft account): Guest 사용자는 외부 identity입니다. 많은 프로필 attribute( JobTitle 포함)는 identity가 외부에서 마스터되기 때문에 tenant에서 안정적으로 편집할 수 없습니다. Azure AD는 프로필 필드에 대해 이들을 완전히 관리되는 member account처럼 취급하지 않습니다. 따라서 Azure AD에서 JobTitle을 수정할 수 있는 것은 User1뿐입니다.

파트 2:

UsageLocation: ______

UsageLocation은 라이선싱 및 서비스 가용성을 위해 사용되는 테넌트별 특성입니다(예: 일부 Microsoft 365/Azure AD 라이선싱 시나리오에서는 UsageLocation을 설정해야 함). Microsoft는 사용자가 온-프레미스에서 동기화된 경우에도 관리자가 Azure AD에서 UsageLocation을 설정할 수 있도록 허용합니다. - User1(클라우드 전용): Azure AD에서 편집 가능. - User2(Windows Server AD에서 동기화됨): 많은 프로필 특성은 읽기 전용이지만, UsageLocation은 클라우드 라이선싱에 필요하고 항상 온-프레미스 AD에서 가져오는 값이 아니기 때문에 Azure AD에서 일반적으로 편집 가능합니다. - User3(게스트): 게스트는 일반적으로 멤버와 동일한 방식으로 라이선스를 할당할 수 없으며, UsageLocation은 보통 테넌트의 게스트 계정에 대해 의미 있거나 관리 가능한 특성이 아닙니다. 따라서 Azure AD에서 User1과 User2에 대해서만 UsageLocation을 수정할 수 있습니다.

다른 모의고사

Practice Test #1

50 문제·100분·합격 700/1000

Practice Test #2

50 문제·100분·합격 700/1000

Practice Test #4

50 문제·100분·합격 700/1000

Practice Test #5

50 문제·100분·합격 700/1000

Practice Test #6

50 문제·100분·합격 700/1000

Practice Test #7

50 문제·100분·합격 700/1000

Practice Test #8

50 문제·100분·합격 700/1000

Practice Test #9

50 문제·100분·합격 700/1000
← 모든 Microsoft AZ-104 문제 보기

지금 학습 시작하기

Cloud Pass를 다운로드하고 모든 Microsoft AZ-104 기출 문제를 풀어보세요.

Get it on Google PlayDownload on the App Store
Cloud PassCloud Pass

IT 자격증 문제풀이 앱

Get it on Google PlayDownload on the App Store

자격증

AWSGCPMicrosoftCiscoCompTIADatabricks

법률

FAQ개인정보 처리방침서비스 약관

회사

문의하기계정 삭제

© Copyright 2026 Cloud Pass, All rights reserved.

이동 중에도 모든 문제를 풀고 싶으신가요?

앱 받기

Cloud Pass를 다운로드하세요 — 모의고사, 학습 진도 추적 등을 제공합니다.