CloudPass LogoCloud Pass
AWSGoogle CloudMicrosoftCiscoCompTIADatabricks
Certifications
AWSGoogle CloudMicrosoftCiscoCompTIADatabricks
  1. Cloud Pass
  2. AWS
  3. AWS Certified Generative AI Developer - Professional (AIP-C01)
AWS Certified Generative AI Developer - Professional (AIP-C01)

AWS

AWS Certified Generative AI Developer - Professional (AIP-C01)

85+ 기출 문제 (AI 검증 답안 포함)

Free questions & answers실제 시험 기출 문제
AI-powered explanations상세 해설
Real exam-style questions실제 시험과 가장 유사
85+ 문제 보기

AI 기반

3중 AI 검증 답안 및 해설

모든 AWS Certified Generative AI Developer - Professional (AIP-C01) 답안은 3개의 최고 AI 모델로 교차 검증하여 최고의 정확도를 보장합니다. 선택지별 상세 해설과 심층 문제 분석을 제공합니다.

GPT Pro
Claude Opus
Gemini Pro
선택지별 상세 해설
심층 문제 분석
3개 모델 합의 정확도

시험 도메인

Foundation Model Integration, Data Management, and Compliance출제율 31%
Implementation and Integration출제율 26%
AI Safety, Security, and Governance출제율 20%
Operational Efficiency and Optimization for GenAI Applications출제율 12%
Testing, Validation, and Troubleshooting출제율 11%

실전 문제

1
문제 1
(3개 선택)

한 금융 회사가 고객의 투자 계획 수립과 포트폴리오 관리를 돕는 AI 어시스턴트를 개발 중입니다. 회사는 특정 종목 추천이나 수익 보장 같은 여러 가지 고위험 대화 패턴을 식별했습니다. 적절한 통제를 구현하지 못하면 이런 고위험 대화 패턴은 규제 위반으로 이어질 수 있습니다. 회사는 AI 어시스턴트가 부적절한 금융 자문을 제공하거나, 경쟁사에 대한 콘텐츠를 생성하거나, 회사의 승인된 금융 지침에 사실적으로 근거하지 않은 주장을 하지 않도록 해야 합니다. 회사는 이 솔루션을 구현하기 위해 Amazon Bedrock Guardrails를 사용하려고 합니다. 어떤 단계 조합이 이 요구사항을 충족합니까? (3개 선택)

Amazon Bedrock Guardrails의 denied topics는 자연어로 기술된 특정 대화 패턴(예: '특정 종목 추천', '수익 보장')을 차단하는 데 적합한 통제입니다. 토픽 이름·정의·샘플 문구를 지정하면 Guardrails가 모델을 사용해 의미상 일치하는 prompt(와 출력)를 탐지·차단합니다. 사용자가 같은 의도를 다양한 방식으로 표현하기 때문에 키워드 매칭보다 견고하며, '부적절한 금융 자문을 하지 않도록 한다'는 요구를 직접 충족합니다.

Content filter는 고정된 유해 카테고리 집합(hate, insults, sexual content, violence, misconduct, prompt attack)을 대상으로 합니다. '특정 종목 추천'이나 '수익 보장' 같은 패턴은 이 카테고리들에 들어맞지 않으므로 content filter로는 신뢰성 있게 잡히지 않습니다. 도메인 특화 대화 제한을 강제하는 데에는 denied topics가 올바른 메커니즘입니다.

Content filter는 경쟁사 이름 같은 임의의 문자열 목록을 받지 못합니다 — 빌트인 유해 카테고리에 대해 분류만 수행합니다. 정확한 목록에 대한 올바른 도구는 옵션 D의 custom word filter입니다.

Custom word filter는 정확한 문자열 매칭을 적용하므로, 경쟁사 이름처럼 닫힌 목록에 정확히 들어맞습니다. input action과 output action을 모두 block으로 설정하면 어시스턴트가 경쟁사를 언급하는 prompt를 받지도 않고 경쟁사가 포함된 응답도 생성하지 않으므로, '경쟁사 콘텐츠를 생성하지 않는다'는 요구를 카테고리 기반 필터의 false negative 없이 충족합니다.

낮은 grounding score threshold은 시스템이 소스 콘텐츠에 약하게만 근거된 응답까지 허용한다는 뜻이며, 이는 요구사항의 정반대입니다. '사실적으로 근거한' 응답을 강제하려면 threshold을 높여야 하고(옵션 F), 그래야 가드레일이 더 낮은 기준에 미치지 못하는 응답을 거부합니다.

Bedrock Guardrails의 contextual grounding check는 생성된 응답이 소스/컨텍스트에 근거하는지 평가합니다. Grounding score threshold은 허용 가능한 최소 grounding 정도를 설정하는데, threshold이 높을수록 약하게 근거된 답변을 더 많이 거부합니다 — '회사의 승인된 금융 지침에 사실적으로 근거한' 응답만 허용해야 한다는 요구가 바로 이 방향입니다. 낮은 threshold(옵션 E)은 그 반대로 근거가 부족한 응답까지 통과시킵니다.

2
문제 2

한 의료 회사가 임상 의사 결정을 돕는 Retrieval Augmented Generation(RAG) 애플리케이션을 구축하기 위해 Amazon Bedrock을 사용하고 있습니다. 애플리케이션은 환자 정보 검색에서 높은 정확도를 달성하고, 생성된 콘텐츠의 환각을 식별하며, 사람 검토 비용을 줄여야 합니다. 어떤 솔루션이 이 요구사항을 충족합니까?

Comprehend와 Step Functions, 엔티티 인식 신뢰도는 환각을 측정하지 않습니다 — 엔티티 분류기가 얼마나 자신감 있는지를 측정할 뿐이며, FM이 생성한 답변이 소스를 충실히 반영하는지와는 무관합니다. 엔티티 점수만 추적하면 의학적으로는 그럴듯해 보이지만 사실은 틀린 임상 진술을 놓칩니다.

맞춤 미세 조정된 의료 평가자를 만들고 Lambda로 병렬화하는 것은 필요 이상으로 무거우며, '사람 검토 비용을 줄이라'는 요구를 평가 측에 개발·유지보수 비용을 더하는 것으로 모순적으로 답하게 됩니다. Bedrock 내장 평가가 이미 판사 모델 정밀도와 환각 메트릭을 기본 제공합니다.

CloudWatch Synthetics는 카나리 모니터링을 위한 합성 트래픽을 생성합니다 — 임상 소스에 대한 검색 정확도를 평가하거나 환각을 탐지하지 않습니다. 예상 결과와의 비교는 고정 테스트 세트의 드리프트만 잡고, 응답별 환각 신호를 전혀 제공하지 않습니다.

LLM-as-a-judge로 1차 스크리닝을 하고 엣지 케이스에만 사람 검토를 두는 하이브리드 평가 시스템은 의료 RAG의 표준 패턴입니다 — 대규모로 정확도와 환각 점수를 산출하면서도 임상의의 시간은 정말 중요한 응답에만 집중되어 회사가 원하는 비용 절감을 달성합니다. 검색 정밀도와 환각 비율을 기본 메트릭으로 보고하는 Bedrock 내장 평가와 짝지으면 그런 메트릭을 처음부터 만들 필요가 없고, Amazon SageMaker Feature Store는 평가 데이터셋의 버전 관리된 보관소를 제공해 시간이 지나도 실행 결과를 비교할 수 있게 해줍니다.

3
문제 3

한 회사가 임직원에게 실시간 AI 도움을 제공하기 위해 Amazon Bedrock foundation model(FM)을 사용하는 고객 지원 애플리케이션을 개발 중입니다. 애플리케이션은 응답이 생성되는 대로 AI가 생성한 응답을 한 글자씩 표시해야 합니다. 또한 최소한의 지연으로 수천 명의 동시 사용자를 지원해야 합니다. 응답은 일반적으로 완료까지 15~45초가 걸립니다. 어떤 솔루션이 이 요구사항을 충족합니까?

Amazon API Gateway WebSocket API는 영구적인 양방향 연결을 위해 설계되어 있어, 모델이 출력을 생성하는 즉시 백엔드가 부분 출력을 클라이언트에 푸시할 수 있습니다. WebSocket API와 Lambda 통합을 짝지어 Amazon Bedrock의 InvokeModelWithResponseStream API를 호출하면, Bedrock이 반환하는 각 청크가 도착하는 즉시 열린 WebSocket을 통해 그대로 전달되어 요구된 한 글자씩 표시 동작을 만들어냅니다. WebSocket API는 또한 대규모 연결 관리를 처리하므로 별도의 인프라 없이 수만 명의 동시 클라이언트를 지원하며, Lambda는 15~45초의 모델 응답 동안 들어오는 연결의 버스트를 수평으로 흡수합니다.

REST API + InvokeModel + 100ms 클라이언트 폴링은 스트리밍이 불가능합니다. 표준 InvokeModel API는 전체 응답이 생성될 때까지 블로킹하고 한 덩어리의 본문으로 반환하므로, 모델이 아직 생성 중일 때 폴링은 아무것도 얻지 못하고, 일단 완료되면 전체 답변이 한꺼번에 도착하여 한 글자씩 표시 요구를 무력화합니다. 폴링 주기는 또한 불필요한 클라이언트 요청을 추가하고, 사용자당 하나의 열린 WebSocket을 유지하는 것보다 훨씬 비용이 큽니다.

IAM 사용자 자격 증명을 가지고 브라우저에서 Bedrock을 직접 호출하면 장기 AWS 자격 증명을 클라이언트 코드에 포함시켜야 하는데, 이는 근본적인 보안 안티패턴입니다 — 그 자격 증명은 Bedrock 전체 권한을 가지며, 안전하게 회전할 수 없고, 백엔드 감사 및 쿼터 통제에서 보이지 않습니다. 별도의 인증 흐름을 통해 임시 자격 증명을 받더라도 여전히 서버 측 가드레일·throttling·prompt 관리를 우회하므로 고객 대면 애플리케이션에는 받아들일 수 없습니다.

완성된 응답을 DynamoDB에 캐시하고 페이지네이션 GET으로 제공하는 방식은 스트리밍의 정반대입니다 — 정의상 캐시는 완성된 응답만 보유하므로 사용자는 15~45초가 모두 지나기 전까지 아무것도 보지 못합니다. 페이지네이션은 이미 완성된 텍스트를 페이지로 나누는 것뿐이며 실시간 출력을 만들지 못하고, AI 도움 트래픽처럼 대부분 prompt가 고유한 워크로드에서는 캐시 적중률도 낮습니다.

4
문제 4

한 미디어 회사가 AI 생성 콘텐츠에 대해 견고한 거버넌스 프로세스를 구현하기 위해 Amazon Bedrock을 사용해야 합니다. 회사는 수백 개의 prompt 템플릿을 관리해야 합니다. 여러 팀이 여러 AWS Region에 걸쳐 이 템플릿을 사용해 콘텐츠를 생성합니다. 솔루션은 보류된 리뷰에 대한 알림을 포함하는 승인 워크플로와 함께 버전 관리를 제공해야 합니다. 또한 prompt 활동을 문서화하는 상세한 감사 추적과 품질 표준을 강제하는 일관된 prompt 매개변수화를 제공해야 합니다. 어떤 솔루션이 이 요구사항을 충족합니까?

Bedrock Studio는 개발자/빌더 UI입니다 — 문제 규모의 prompt에 대해 중앙화된 버전 관리나 감사 이력을 제공하지 않습니다. 승인 상태를 DynamoDB에 저장하고 Lambda로 강제하는 것은 Prompt Management가 기본 제공하는 워크플로를 별도로 구축하는 것이며, 'LEAST 개발'의 정반대입니다.

Amazon Bedrock Prompt Management는 빌트인 버전 관리, 매개변수화된 변수, 버전별 액세스 제어를 갖춘, prompt 템플릿을 저장하기 위한 AWS 관리형 서비스입니다. IAM 정책으로 누가 버전을 승격할 수 있는지를 게이트하면 별도의 워크플로 엔진 없이 승인 워크플로 요구를 충족하며, AWS CloudTrail은 모든 Prompt Management API 호출을 변경 불가능한 감사 기록으로 자동 캡처합니다. 이 세 가지가 합쳐지면 별도 오케스트레이션 없이 버전 관리, 승인(권한 기반), 감사 추적, 매개변수화를 모두 충족합니다.

S3 + 태그는 prompt를 문서처럼 다루는 패턴이며, 일급 prompt 매개변수화와 버전 관리가 빠져 있습니다. EventBridge 알림은 알림 측면을 다루지만, 누락된 prompt 템플릿 엔진 때문에 팀이 변수 치환과 검증 로직을 직접 구현해야 합니다.

Amazon SageMaker Canvas는 노코드 ML 모델링용입니다 — prompt 관리용이 아닙니다. CloudFormation은 템플릿을 파일로 버전 관리할 수 있지만 팀별 승인 흐름을 가진 수백 개의 prompt 변형을 호스팅하도록 설계되지 않았으며, AWS Config는 리소스 컴플라이언스를 평가하지 prompt 승인을 평가하지 않습니다.

5
문제 5
(2개 선택)

한 회사가 연구자들의 연구비 신청을 돕는 애플리케이션을 설계하기 위해 Amazon Bedrock을 사용하고 있습니다. 애플리케이션은 Amazon Nova Pro foundation model(FM)을 기반으로 합니다. 애플리케이션에는 4개의 필수 입력이 있으며, 일관된 텍스트 형식으로 응답을 제공해야 합니다. 회사는 응답에 괴롭힘 표현이 포함될 경우 Amazon Bedrock에서 알림을 받기를 원하지만, 플래그된 모든 응답을 차단하고 싶지는 않습니다. 회사는 입력 prompt를 받아서 Amazon Nova Pro FM에 보내는 Amazon Bedrock flow를 생성하고, Amazon Nova Pro FM이 응답을 제공합니다. 이 요구사항을 충족하기 위해 회사가 추가로 수행해야 할 단계는 무엇입니까? (2개 선택)

Amazon Bedrock Prompt Management를 사용하면 매개변수화된 prompt를 이름이 부여된 변수와 함께 정의하고, foundation model(Nova Pro)과 추론 매개변수를 고정하며, 기대되는 출력 형식을 지정할 수 있습니다 — 이는 4개의 필수 입력을 변수로 전달해야 하고 응답이 일관된 텍스트 형식을 따라야 할 때 정확히 필요한 것입니다. 정의된 prompt는 Bedrock flow의 prompts node에서 참조되므로, 입력 → 모델 → 출력 매핑이 flow 정의에 하드코딩되는 대신 중앙에서 관리됩니다.

action을 'block'으로 설정하면 필터가 트리거될 때마다 응답이 차단되며, 이는 회사가 플래그된 모든 응답을 차단하고 싶지 않다는 명시적 요구를 위반합니다. 또한 hate 카테고리는 일반적인 괴롭힘 표현에는 잘 맞지 않으며, 옵션 D의 insults 카테고리가 더 정확합니다.

prompt router는 호출마다 여러 foundation model 사이에서 선택하는 메커니즘이며, 필수 입력을 선언하거나 출력 형식을 강제하는 메커니즘이 아닙니다. flow는 이미 Nova Pro로 고정되어 있어 router를 도입하면 매개변수화나 콘텐츠 필터링 요구를 다루지 못한 채 복잡도만 추가됩니다.

insults content filter를 'block'이 아닌 'detect' action으로 설정하면, 괴롭힘 표현이 나타날 때 응답 전달을 막지 않으면서 알림을 발생시킵니다 — 플래그된 모든 응답을 차단하지 않으면서 알림은 받겠다는 요구와 일치합니다. 괴롭힘 표현은 Bedrock Guardrails에서 insults 카테고리에 해당하며, 'detect'는 응답을 그대로 흘려보내면서 감사 가능한 신호를 발생시키는 action입니다.

application inference profile은 모델이 어디서 어떻게 호출되는지(cross-Region 추론, 모니터링 태그)를 통제합니다 — prompt 템플릿 기능이 아닙니다. profile 설명에 출력 형식을 인코딩하고 입력 변수에 태그를 다는 것은 profile의 오용이며, 입력·모델·출력 형식을 정의하는 지원되는 방식은 옵션 A의 Prompt Management입니다.

이동 중에도 모든 문제를 풀고 싶으신가요?

Cloud Pass를 다운로드하세요 — 모의고사, 학습 진도 추적 등을 제공합니다.

6
문제 6

한 회사가 여러 사업부의 회사 문서를 요약하기 위해 Amazon Bedrock을 사용하는 내부 생성형 AI(GenAI) 어시스턴트를 개발 중입니다. GenAI 어시스턴트는 문서 요약, 사업 리스크 분류, 검토를 위해 플래그된 용어를 포함하는 일관된 형식으로 응답을 생성해야 합니다. GenAI 어시스턴트는 법무, 인사, 재무 등 각 사용자의 사업부에 맞춰 응답의 톤을 조정해야 합니다. GenAI 어시스턴트는 혐오 발언, 부적절한 토픽, 개인 건강 정보 같은 민감한 정보를 차단해야 합니다. 회사는 사업부와 팀 간에 prompt 변형을 중앙에서 관리할 솔루션이 필요합니다. 회사는 후처리 로직에 대한 지속적인 오케스트레이션 노력과 유지보수를 최소화하고자 합니다. 회사는 또한 시간이 지남에 따라 GenAI 어시스턴트의 콘텐츠 모더레이션 기준을 조정할 수 있는 능력도 원합니다. 어떤 솔루션이 가장 적은 유지보수 오버헤드로 이 요구사항을 충족합니까?

Amazon Bedrock Prompt Management는 재사용 가능한 템플릿과 사업부별 prompt 변형을 직접 지원합니다 — 회사가 원하는 중앙화입니다. 템플릿을 (혐오 발언 등 유해 콘텐츠를 다루는) Bedrock Guardrails 카테고리 필터, 그리고 PHI/PII용 민감 용어 목록과 짝지으면 관리형 서비스로 모더레이션 레이어를 처리하므로 지속적인 오케스트레이션은 매우 적습니다. 두 서비스 모두 콘솔이나 API에서 튜닝 가능하므로, 시간이 지나면서 모더레이션 기준을 조정하는 것은 코드 변경이 아니라 구성 변경입니다.

청중 기반 임계값 튜닝과 내부 관리 API는 Bedrock Guardrails의 기능이 아닌 자체 발명입니다. 이를 구축하려면 맞춤 관리 레이어를 작성하고 유지해야 하므로 오케스트레이션 오버헤드가 줄어드는 게 아니라 늘어납니다.

API 호출에 지침을 주입하고, Step Functions로 응답을 검증하고, Comprehend로 후처리 필터링하는 것은 사업부별로 유지해야 하는 움직이는 부품들의 파이프라인(DynamoDB 규칙, Step Functions, Comprehend)을 만듭니다. 추론 호출의 Bedrock Guardrails는 이미 별도 오케스트레이션 없이 카테고리 필터링을 처리합니다.

DynamoDB에 사업부별 prompt를 두고 두 개의 Lambda(선택용·후처리용)를 두는 것은 정확히 문제가 피하려는 맞춤 오케스트레이션입니다. Comprehend는 범용 NLP이며, Guardrails가 기본 제공하는 유해 콘텐츠 카테고리에 특화되어 있지 않습니다.

7
문제 7

한 금융 서비스 회사가 사용자 쿼리와의 의미적 유사성에 기반하여 데이터베이스에서 관련 금융 규제 문서를 검색하는 고객 지원 애플리케이션을 구축 중입니다. 애플리케이션은 응답을 생성하기 위해 Amazon Bedrock과 통합되어야 합니다. 애플리케이션은 영어, 스페인어, 포르투갈어로 된 문서를 검색할 수 있어야 합니다. 애플리케이션은 게시일, 규제 기관, 문서 유형 같은 메타데이터로 문서를 필터링해야 합니다. 데이터베이스는 약 1,000만 개의 문서 임베딩을 저장합니다. 운영 오버헤드를 최소화하기 위해 회사는 관리·유지보수 노력을 최소화하는 솔루션을 원합니다. 애플리케이션은 실시간 고객 상호작용을 위해 낮은 지연 응답을 제공해야 합니다. 어떤 솔루션이 이 요구사항을 충족합니까?

Amazon OpenSearch Serverless는 문제에 기술된 1,000만 문서 규모에서 벡터 유사도 검색과 메타데이터 필터링을 모두 처리하는 관리형 벡터 저장소이며, 확장과 운영 측면을 사용자가 신경 쓸 필요가 없습니다. Amazon Bedrock Knowledge Base의 벡터 저장소로 연결하면 다국어 임베딩이 기본 지원되는 Anthropic Claude foundation model에 RetrieveAndGenerate를 쓸 수 있습니다. 이 조합이 문제가 요구하는 세 가지 — 낮은 지연 벡터 검색, 게시일·규제 기관·문서 유형에 대한 메타데이터 필터링, 최소 관리 오버헤드 — 를 동시에 충족합니다.

pgvector를 적용한 Aurora PostgreSQL은 1,000만 임베딩 규모에서는 인스턴스 사이징·인덱스 튜닝·유지보수/패칭을 직접 해야 할 만큼 자체 관리 부담이 큽니다 — 서버리스보다 운영 오버헤드가 낮은 게 아니라 높습니다. 맞춤 SQL 유사도도 Bedrock Knowledge Base와의 자연스러운 통합을 놓칩니다.

S3 Vectors의 필터링이 안 되는 메타데이터 필드는 게시일, 규제 기관, 문서 유형으로 필터링해야 한다는 명시 요구를 충족할 수 없습니다. 필터링이 유스 케이스의 핵심이므로 필터링이 안 되는 저장소는 후보에서 제외됩니다.

Amazon Neptune Analytics는 그래프 데이터베이스입니다. 벡터 인덱싱을 지원하지만 운영 모델이 그래프 워크로드와 다중 hop 관계 분석에 맞춰져 있어, 독립 문서에 대한 단순 의미 유사도에는 과합니다 — LEAST 오버헤드 옵션이 아닙니다.

8
문제 8

한 의료 회사가 RAG를 사용하여 근거 기반 의료 정보를 제공하는 생성형 AI(GenAI) 애플리케이션을 구축 중입니다. 애플리케이션은 벡터 임베딩을 검색하기 위해 Amazon OpenSearch Service를 사용합니다. 사용자들은 정확한 의료 용어와 약어를 포함한 결과가 검색에서 자주 누락되며, 의미적으로는 유사하지만 관련 없는 문서가 너무 많이 반환된다고 보고합니다. 회사는 문서 모음이 수백만 건 규모로 커져도 검색 품질을 개선하면서 최종 사용자 지연은 낮게 유지해야 합니다. 어떤 솔루션이 가장 적은 운영 오버헤드로 이 요구사항을 충족합니까?

하이브리드 검색은 벡터 유사도(의미 이해)와 전통적인 키워드/BM25 매칭(정확한 용어와 약어)을 결합합니다. 이는 Amazon Bedrock Knowledge Bases와 Amazon OpenSearch Service에서 문서화된 구성이므로, 활성화한다고 새로운 인프라가 필요한 게 아니라 기존 벡터 저장소에 대한 검색 모드 변경입니다. 이 조합은 팀이 관찰한 실패 모드(정확한 의료 용어·약어가 필요한 쿼리에서 벡터 단독은 누락하고, 키워드 단독은 의미적으로 유사한 표현을 누락)를 직접 다루며, 추가 움직이는 부품 없이 지연 영향도 최소이므로 LEAST 오버헤드 요구를 충족합니다.

임베딩 차원을 384에서 1,536으로 늘리면 인덱스 저장소와 유사도 계산이 모두 비싸지면서, 정작 문제(정확한 용어 매칭 부재)에는 영향이 없습니다. 검색 후 Lambda 필터를 추가하는 것은 검색 자체를 고치지 않고 증상만 재정렬하는 볼트온 로직입니다.

OpenSearch를 Amazon Kendra로 교체하는 것은 검색 백엔드 전체 마이그레이션 — 최소 운영 오버헤드와는 거리가 멉니다. 쿼리 확장이 약어를 처리하긴 하지만, 팀이 이미 구축한 벡터 검색 자산을 잃습니다.

검색 후 재랭킹의 2단계 파이프라인은 운영해야 할 새 컴포넌트(SageMaker 엔드포인트와 그 주변 오케스트레이션) 둘을 추가하고 지연을 늘립니다. 더 강력하지만 LEAST 운영 오버헤드 옵션은 아닙니다.

9
문제 9

한 회사가 Amazon Bedrock을 사용하는 생성형 AI(GenAI) 기반 요약 애플리케이션을 애플리케이션 AWS 계정에서 운영합니다. 애플리케이션 아키텍처는 사설 VPC 서브넷에 연결된 AWS Lambda 함수로 요청을 전달하는 Amazon API Gateway REST API를 포함합니다. 애플리케이션은 회사가 중앙 데이터 스토리지 계정의 거버넌스된 데이터 레이크에 저장하는 민감한 고객 레코드를 요약합니다. 회사는 데이터 스토리지 계정에서 Amazon S3, Amazon Athena, AWS Glue를 활성화했습니다. 회사는 애플리케이션이 Amazon Bedrock에 대해 수행하는 호출이 회사의 애플리케이션 VPC와 Amazon Bedrock 사이의 사설 연결만 사용하도록 보장해야 합니다. 회사의 데이터 레이크는 회사의 AWS 계정 전반에 걸쳐 세분화된 컬럼 수준 액세스를 제공해야 합니다. 어떤 솔루션이 이 요구사항을 충족합니까?

Bedrock 런타임용 인터페이스 VPC 엔드포인트는 모든 모델 호출을 AWS PrivateLink 위에 두고 절대 공용 인터넷을 거치지 않게 합니다 — 회사가 말하는 'Amazon Bedrock과 애플리케이션 VPC 사이의 사설 연결만'이 정확히 이것입니다. Lambda 함수를 그 엔드포인트 뒤의 사설 서브넷에서 실행하고, 호출을 승인된 엔드포인트·역할로 고정하는 IAM 조건을 더하면 네트워크와 신원 통제가 완성됩니다. 데이터 레이크 측에서는 AWS Lake Formation LF-tag 기반 액세스 제어가 Glue Data Catalog에 등록된 테이블에 대한 세분화된 cross-account 컬럼 수준 부여를 위한 AWS의 권장 메커니즘이며 — cross-account 컬럼 수준 요구를 직접 충족합니다.

Bedrock 트래픽을 NAT 게이트웨이로 라우팅하면 공용 인터넷을 거치게 되어 사설 전용 요구를 위반합니다. S3 ACL은 거친 입자 단위라 컬럼 수준 부여가 불가능하며, 주간 CloudTrail 검토는 강제 가능한 통제로는 빈도가 너무 낮습니다.

S3 게이트웨이 엔드포인트는 Bedrock에 대한 사설 연결을 제공하지 않습니다 — S3에만 적용됩니다. Bedrock을 공용 엔드포인트로 호출하는 것은 요구 위반이고, 데이터베이스 수준 부여로는 컬럼 수준 액세스를 강제할 수 없습니다.

두 서비스에 대한 VPC 엔드포인트는 사설 연결을 다루지만, IAM 경로 기반 정책은 세분화된 컬럼 수준 액세스를 제공할 수 없습니다 — 그것은 Lake Formation LF-tag가 필요합니다. 메트릭 필터나 알람 없이 CloudTrail을 CloudWatch Logs로만 보내는 것도 감사 태세를 약화시킵니다.

10
문제 10

한 소매 회사가 Amazon Bedrock을 사용하는 생성형 AI(GenAI) 제품 추천 애플리케이션을 운영합니다. 애플리케이션은 검색 이력과 인구통계를 기반으로 고객에게 제품을 제안합니다. 회사는 두 가지 prompt 접근법 사이에서 추천의 편향을 탐지·측정하기 위해 여러 인구통계 그룹에 걸친 공정성 평가를 구현해야 합니다. 회사는 공정성 메트릭을 실시간으로 수집·모니터링하고자 합니다. 회사는 인구통계 그룹 간 공정성 메트릭의 차이가 15%를 초과하면 알림을 받아야 합니다. 회사는 또한 두 prompt 접근법의 성능을 비교하는 주간 보고서도 받아야 합니다. 어떤 솔루션이 가장 적은 맞춤 개발 노력으로 이 요구사항을 충족합니까?

EventBridge로 트리거되는 Lambda 함수에서 후처리 분석으로 공정성 메트릭을 계산하는 것은 정확히 문제가 최소화하라고 한 맞춤 개발입니다. 네이티브 공정성 측정이 없어 팀이 메트릭 파이프라인을 직접 작성·유지해야 합니다.

Bedrock Guardrails 콘텐츠 필터는 유해 콘텐츠 카테고리(hate, insults 등)를 대상으로 합니다 — 인구통계 공정성을 측정하지 않습니다. InvocationsIntervened 메트릭은 가드레일 개입을 카운트하며 인구통계 그룹 간 공정성과는 무관합니다.

Amazon SageMaker Clarify는 AWS의 편향·공정성 분석 전용 서비스로, 두 prompt 접근법을 비교할 때 회사가 필요한 인구통계 그룹별 통계 공정성 메트릭(DPL, DI, KL 등)을 산출합니다. 그 메트릭을 Amazon CloudWatch에 게시하고 복합 알람을 사용하면 차이 임계값(15%)을 메트릭 수학 규칙으로 표현해 실시간 트리거를 만들 수 있습니다. CloudWatch 대시보드는 주간 성능 비교를 맞춤 개발 없이 기본 시각화로 제공하므로 LEAST 맞춤 개발 요구를 충족합니다.

Bedrock 모델 평가 작업은 배치 평가이며 실시간으로 실행되지 않습니다. InvocationsIntervened는 다시 가드레일 메트릭이지 공정성 메트릭이 아닙니다 — 인구통계 차원으로 태그를 달아도 편향 측정을 만들어내지 않습니다.

이동 중에도 모든 문제를 풀고 싶으신가요?

Cloud Pass를 다운로드하세요 — 모의고사, 학습 진도 추적 등을 제공합니다.

11
문제 11

한 회사가 AWS Amplify, AWS AppSync GraphQL API, Amazon Bedrock Knowledge Bases를 사용하는 React 애플리케이션으로 AI 어시스턴트를 배포했습니다. 애플리케이션은 Knowledge Base 상호작용을 위해 GraphQL API를 사용하여 Amazon Bedrock RetrieveAndGenerate API를 호출합니다. 회사는 RequestResponse 호출 유형을 사용하도록 AWS Lambda resolver를 구성합니다. 애플리케이션 사용자는 잦은 타임아웃과 느린 응답 시간을 보고합니다. 사용자는 더 긴 처리가 필요한 복잡한 질문에서 이 문제를 더 자주 보고합니다. 회사는 이 성능 문제를 해결하고 사용자 경험을 향상시킬 솔루션이 필요합니다. 어떤 솔루션이 이 요구사항을 충족합니까?

AWS Amplify AI Kit은 AWS AppSync GraphQL API를 통한 생성형 AI 응답 스트리밍을 위해 만들어진 도구입니다 — 정확히 기존 스택입니다. Resolver를 스트리밍 패턴으로 전환하면 클라이언트가 동기 RequestResponse Lambda 호출이 끝날 때까지 기다리는 대신 토큰이 도착하는 대로 렌더링하므로, 복잡한 쿼리에서의 타임아웃 증상과 체감 느림을 모두 제거합니다. AI Kit이 Amplify 기본 요소이므로 AppSync 스택을 갈아엎을 필요 없이 그대로 적용됩니다.

Lambda 타임아웃을 늘리고 지수 백오프 재시도를 더하는 것은 증상을 다루는 것이지 원인이 아닙니다. 사용자는 여전히 복잡한 쿼리의 전체 처리 시간 동안 아무 출력도 보지 못하며, 동기 resolver에서의 재시도는 지연을 줄이는 게 아니라 더합니다.

비동기 처리를 위해 SQS 큐로 라우팅하면 채팅 스타일 어시스턴트에 기대되는 동기 클라이언트 UX가 깨집니다. 사용자는 더 이상 스트리밍 응답을 받지 못하고 결국 응답만 받게 되므로, 팀이 고치려는 경험에 더 나쁩니다.

AppSync에서 별도의 API Gateway WebSocket API로 마이그레이션하는 것은 기존 GraphQL 스택을 버리고 전송 계층 전체를 재구축하는 것이므로, 이미 가지고 있는 resolver에서 Amplify AI Kit 스트리밍을 활성화하는 것보다 훨씬 침습적입니다.

12
문제 12

한 이커머스 회사가 규제, 비용 최적화, 성능 요구사항에 따라 Amazon Bedrock에서 여러 foundation model(FM)을 전환해야 하는 글로벌 제품 추천 시스템을 운영합니다. 회사는 동적 비용 임계값, AWS Region별 컴플라이언스 규칙, 여러 FM에 걸친 실시간 A/B 테스트 등을 포함한 독자적 비즈니스 로직 기반의 맞춤 통제를 적용해야 합니다. 시스템은 새 코드를 배포하지 않고 FM을 전환할 수 있어야 합니다. 시스템은 사용자 요청을 사용자 등급, 거래 금액, 규제 영역, 그리고 매시간 변하고 수천 개의 동시 요청에 즉시 전파되어야 하는 실시간 비용 메트릭 등 복잡한 규칙에 따라 라우팅해야 합니다. 어떤 솔루션이 이 요구사항을 충족합니까?

Lambda 환경 변수를 콘솔에서 업데이트하는 것 자체가 배포 이벤트(함수 구성 업데이트)이므로, 운영 등급 롤아웃에서는 'FM을 새 코드 배포 없이 전환'을 충족하지 못합니다. 네이티브 검증·롤백·단계적 배포도 없습니다.

stage 변수가 있는 API Gateway 요청 변환 템플릿은 API 요청 라우팅용으로 설계되었으며, 사용자 등급·거래 금액 같은 요청별 규칙을 평가하는 데는 적합하지 않습니다. stage 변수도 배포 단계 변경이지 실시간 구성이 아닙니다.

AWS AppConfig는 AWS 관리형 런타임 구성 서비스입니다: 라우팅 규칙은 코드와 독립적으로 업데이트할 수 있고, 배포에는 검증과 안전한 롤아웃 전략이 포함되며, AppConfig Agent가 Lambda 런타임에 구성을 캐시하므로 수천 개의 동시 호출에서도 요청별 읽기는 로컬 메모리 속도입니다. 라우팅 로직을 AppConfig 구성을 읽고 Bedrock foundation model을 선택하는 Lambda 함수에 두면, 동적 비용 임계값·규제 영역 규칙·A/B 트래픽 분할이 모두 코드 재배포 없이 전파되는 구성으로 표현됩니다 — 이것이 핵심 요구입니다.

Lambda 권한 부여자는 통합 대상이 선택되기 전에 실행되므로 요청별 모델 라우팅 결정을 내리기에 올바른 위치가 아닙니다. 모델별 Lambda로 라우팅하면 아키텍처가 분기되고 단일 Lambda에서 라우팅을 다루는 것보다 FM 간 A/B 테스트도 어렵습니다.

13
문제 13

한 금융 서비스 회사가 투자 분석가가 여러 투자 수단, 시장 섹터, 규제 환경에 걸친 복잡한 금융 관계를 쿼리하는 데 도움이 되는 Retrieval Augmented Generation(RAG) 애플리케이션을 개발 중입니다. 데이터셋에는 다중 hop 관계를 가진 고도로 상호 연결된 엔티티가 포함되어 있습니다. 분석가들은 정확한 투자 가이드를 제공하기 위해 그 관계를 종합적으로 살펴볼 수 있어야 합니다. 애플리케이션은 금융 엔티티 간의 간접 관계를 포착하는 종합적인 답변을 제공해야 하며, 응답을 3초 이내에 산출해야 합니다. 어떤 솔루션이 가장 적은 운영 오버헤드로 이 요구사항을 충족합니까?

Graph RAG와 Amazon Neptune Analytics를 사용하는 Amazon Bedrock Knowledge Bases는 분석가가 필요한 다중 hop, 고도로 상호 연결된 쿼리를 위해 만들어진 도구입니다: Graph RAG는 벡터 검색과 그래프 관계 순회를 결합하여, 엔티티 간 간접 연결(투자 수단 → 섹터 → 규제 환경)이 직접 의미 매칭만이 아니라 답변에 드러나도록 합니다. 두 서비스 모두 관리형이라 작성할 관계 순회 코드도, 운영할 그래프 저장소도 없습니다 — LEAST 운영 오버헤드 경로입니다. Neptune Analytics는 그래프 쿼리를 메모리에서 처리하므로 sub-3초 지연도 달성 가능합니다.

평탄한 벡터 저장소 위에서 Lambda 함수 체이닝으로 다중 hop 관계를 다루는 것은 Graph RAG가 이미 제공하는 그래프 순회를 다시 만드는 것이며, 지연과 운영 표면(함수 코드, 에러 처리, 시퀀싱) 모두 배가됩니다.

OpenSearch Serverless k-NN은 벡터 유사도는 처리하지만 관계 모델링은 하지 않습니다. 관계 계층을 EC2 Auto Scaling에 두는 것은 Graph RAG가 네이티브로 처리할 애플리케이션 계층을 팀이 운영한다는 뜻입니다.

DynamoDB에는 네이티브 의미 검색이나 그래프 검색이 없습니다. DynamoDB 위 맞춤 인덱싱 시스템과 SageMaker 응답 생성을 결합하는 것은 Bedrock이 제공하는 관리형 그래프 RAG 기본 요소를 무시한 from-scratch 빌드입니다.

14
문제 14

한 엘리베이터 서비스 회사가 Amazon Bedrock을 사용하여 AI 어시스턴트 애플리케이션을 개발했습니다. 애플리케이션은 회사의 엘리베이터 기술자들을 지원하기 위해 엘리베이터 유지보수 권장사항을 생성합니다. 회사는 엘리베이터 센서 데이터를 수집하기 위해 Amazon Kinesis Data Streams를 사용합니다. 새로운 규제 규칙은 사람 기술자가 모든 AI 생성 권장사항을 검토할 것을 요구합니다. 회사는 AI 권장사항을 검토·승인할 사람 감독 워크플로를 구축해야 합니다. 회사는 모든 사람 기술자 검토 결정을 감사 목적으로 저장해야 합니다. 어떤 솔루션이 이 요구사항을 충족합니까?

맞춤 Lambda + SQS 승인 워크플로는 정확히 .waitForTaskToken이 대체하기 위해 설계된 종류의 맞춤 오케스트레이션입니다: 팀이 Step Functions가 이미 제공하는 상태·재시도·타임아웃 처리를 다시 구현해야 합니다.

AWS Step Functions는 .waitForTaskToken 통합 패턴을 통해 휴먼 인 더 루프 일시 정지를 네이티브 지원합니다: 상태 머신이 토큰을 발행하고 사람 검토 시스템에 넘긴 뒤, 그 토큰과 함께 SendTaskSuccess(또는 SendTaskFailure)가 호출될 때까지 무기한 일시 정지합니다. 이것이 기술자 검토 요구사항에 깔끔하게 매핑되며, 워크플로에 단일·내구성 있는 결정 기록을 부여하고, 승인 페이로드를 DynamoDB에 영속하면 장기 감사 추적도 충족합니다. Step Functions는 재시도, 에러 처리, 시각화도 기본 제공하므로 움직이는 부품이 최소입니다.

AWS Glue는 데이터 통합/ETL 서비스이지 사람 승인을 위한 워크플로 엔진이 아닙니다 — 기술자 검토를 게이트하기 위해 Glue 워크플로를 사용하는 것은 서비스 오용이고, 장기 실행 task-token 패턴이 빠져 있습니다.

EventBridge는 이벤트를 라우팅할 수 있지만 사람의 결정을 위해 일시 정지하는 네이티브 개념이 없으며, Glue 작업과 ElastiCache는 감사 결정을 저장하는 데 잘못된 도구(캐시는 본질적으로 휘발성)입니다.

15
문제 15

한 금융 서비스 회사가 Amazon Bedrock을 사용하여 금융 문서를 처리하는 AI 애플리케이션을 사용합니다. 영업 시간 동안 애플리케이션은 시간당 약 10,000건의 요청을 처리하며, 일관된 처리량을 요구합니다. 회사는 프로비저닝된 처리량을 구매하기 위해 CreateProvisionedModelThroughput API를 사용합니다. Amazon CloudWatch 메트릭은 프로비저닝된 용량이 사용되지 않는 동안 on-demand 요청이 throttling되고 있음을 보여줍니다. 회사는 애플리케이션에서 다음 코드를 발견합니다: python response = bedrock_runtime.invoke_model(modelId="anthropic.claude-v2", body=json.dumps(payload)) 회사는 애플리케이션이 프로비저닝된 처리량을 사용하고 throttling 문제를 해결해야 합니다. 어떤 솔루션이 이 요구사항을 충족합니까?

트래픽이 애초에 프로비저닝된 용량에 도달하지 않는데 모델 단위를 더 늘려도 도움이 되지 않습니다. 프로비저닝 풀은 사용되지 않은 상태이지 부족한 상태가 아닙니다.

Amazon Bedrock 프로비저닝된 처리량은 CreateProvisionedModelThroughput가 반환하는 ARN과 연결됩니다 — foundation model ID와 연결되는 것이 아닙니다. 문제의 코드는 'anthropic.claude-v2' 즉 on-demand 모델 ID를 호출하므로, 모든 요청이 on-demand 풀에서 처리되고(그래서 throttling) 그동안 프로비저닝된 용량은 사용되지 않은 채 남습니다. modelId를 프로비저닝된 ARN으로 교체하는 것이 애플리케이션을 그 전용 용량에 바인딩해, 사용되지 않는 처리량과 throttling 증상을 한 번의 변경으로 모두 해결합니다.

지수 백오프는 on-demand 경로의 throttling을 가리지만, 애플리케이션이 이미 비용을 지불한 프로비저닝된 처리량을 절대 사용하지 못하게 만듭니다. 또한 throttling 원인을 제거하는 게 아니라 지연을 더할 뿐입니다.

InvokeModelWithResponseStream으로 전환하는 것은 응답 형태(스트리밍 vs 단일)를 바꾸지만 여전히 같은 modelId에 대해 라우팅되므로, 프로비저닝된 용량은 그대로 손대지 않은 채입니다.

이동 중에도 모든 문제를 풀고 싶으신가요?

Cloud Pass를 다운로드하세요 — 모의고사, 학습 진도 추적 등을 제공합니다.

16
문제 16

한 금융 서비스 회사가 생성형 AI(GenAI) 애플리케이션을 위해 Amazon Bedrock을 통해 여러 foundation model(FM)을 사용합니다. 민감한 금융 데이터를 사용하는 GenAI에 관한 새 규제를 준수하기 위해 회사는 토큰 관리 솔루션이 필요합니다. 토큰 관리 솔루션은 애플리케이션이 모델별 토큰 한도에 접근할 때 선제적으로 알림을 보내야 합니다. 솔루션은 또한 분당 5,000건이 넘는 요청을 처리해야 하며, 사업부별 비용을 할당하기 위해 토큰 사용 메트릭을 유지해야 합니다. 어떤 솔루션이 이 요구사항을 충족합니까?

Amazon Bedrock의 토큰 한도는 모델별이므로, Lambda 함수에서 모델별 토크나이저로 요청 전에 토큰 사용량을 추정하는 것이 선제적으로(즉, 요청이 거부되기 전에) 알림을 보낼 수 있는 유일한 방법입니다. 그 추정값을 Amazon CloudWatch 메트릭으로 게시하면 임계값과 알람을 한 곳에서 설정할 수 있고, 상세 사용량을 Amazon DynamoDB에 저장하면 사업부별 비용 할당을 뒷받침합니다. 이 조합이 세 가지 요구(선제적 알림, 분당 5,000건 처리량, 사업부별 비용 보고)를 관리형 AWS 서비스만으로 직접 매핑합니다.

Bedrock Guardrails에는 토큰 쿼터 정책이 없습니다 — 그 관심사는 콘텐츠 모더레이션, denied topics, PII 처리입니다. 가드레일 메트릭 위에 토큰 알림을 구축하는 것은 서비스를 오용하는 것이며 선제적 알림 요구를 충족하지 못합니다.

SQS 데드 레터 큐는 사실 후 실패한 요청을 캡처합니다 — 반응적이며, 문제는 명시적으로 토큰 한도에 도달하기 전에 선제적 알림을 요구합니다. Logs Insights 기반 분석도 요청별 CloudWatch 메트릭보다 느립니다.

API Gateway 사용 계획은 토큰이 아니라 요청을 카운트합니다. 토큰 사용량은 콘텐츠 의존적이고 같은 사용 계획 내에서도 요청마다 다르므로, 요청 카운트 throttling으로는 토큰 수준 한도를 정확히 강제할 수 없습니다.

17
문제 17

한 소매 회사가 제품, 주문, 보증에 관한 일일 10,000건의 쿼리를 처리해야 하는 고객 서비스 애플리케이션을 개발 중입니다. 애플리케이션은 매일 업데이트되는 50,000개 제품 문서에 관한 쿼리에 응답할 수 있어야 합니다. 애플리케이션은 주문 상태를 확인하고 반품 처리를 돕기 위해 주문 관리 API와 통합되어야 합니다. 애플리케이션은 고객과의 다중 턴 상호작용 전반에 걸쳐 컨텍스트를 유지해야 합니다. 회사는 애플리케이션 응답에 대한 완전한 감사 추적을 수집해야 합니다. 어떤 솔루션이 가장 적은 운영 오버헤드로 이 요구사항을 충족합니까?

제품 카테고리별 모델 미세 조정은 무겁고 비싸며, 주문 관리 API 통합도 제공하지 않고, 매일 업데이트 요구와 충돌합니다(매번 미세 조정 후 카탈로그가 모델에서 어긋남).

Continued pre-training은 미세 조정보다 더 무겁고, 다시 API 도구 사용이나 매일 문서 변경에서의 유지보수성을 다루지 못합니다. 위에 얹는 맞춤 Lambda + REST API는 Bedrock 에이전트가 이미 제공하는 손수 만든 오케스트레이션입니다.

SageMaker AI 컨테이너, Kendra, Step Functions는 동작 가능하지만 맞춤 대안입니다 — 팀이 모델 컨테이너를 운영하고 Bedrock 에이전트가 기본 처리하는 오케스트레이션을 직접 엮어야 합니다.

Amazon Bedrock 에이전트는 action group으로 주문 관리 API를 직접 호출할 수 있고, 연결된 Bedrock Knowledge Base는 매일 업데이트되는 50,000개 제품 문서에 대한 RAG를 제공합니다 — 에이전트가 사용자 턴마다 문서 검색과 주문 액션 호출 중 무엇을 할지 선택합니다. 다중 턴 컨텍스트는 Bedrock 에이전트의 세션 상태에 기본 내장되어 있으며, trace 이벤트를 활성화하면 에이전트의 추론·검색·액션 호출이 감사 추적 요구를 위해 캡처됩니다. 전체 스택이 관리형이며 유지할 오케스트레이션 계층이 없습니다.

18
문제 18

한 회사가 전 세계 사용자가 새 식당을 발견하는 데 도움이 되는 서비스를 제공합니다. 서비스는 월간 활성 사용자가 5,000만 명입니다. 회사는 2,000만 개 식당과 2억 개 리뷰가 들어 있는 데이터베이스 전반에 걸쳐 의미 검색 솔루션을 구현하려고 합니다. 회사는 현재 데이터를 PostgresQL 데이터베이스에 저장합니다. 솔루션은 복잡한 자연어 쿼리를 지원해야 하며, 최소 95%의 쿼리에 대해 500ms 이내에 결과를 반환해야 합니다. 솔루션은 매시간 업데이트되는 식당 세부 정보의 데이터 신선도를 유지해야 합니다. 또한 최고 사용 기간 동안 비용 효율적으로 확장되어야 합니다. 어떤 솔루션이 가장 적은 개발 노력으로 이 요구사항을 충족합니까?

맞춤 분석기를 사용하는 순수 키워드 검색으로는 '복잡한 자연어 쿼리'를 충족할 수 없습니다 — 의미 유사도가 중요한 영역인데 어휘 매칭은 부족합니다.

OpenSearch Service는 이 규모용으로 설계되었습니다: 식당 2,000만, 리뷰 2억은 적절히 사이징된 인덱스에서 sub-500ms p95 지연을 검증된 패턴으로 만족시킵니다. Bedrock foundation model로 임베딩을 생성하고 벡터 필드로 저장하면, 같은 FM이 검색 시점에 사용자 쿼리를 벡터로 변환해 양쪽이 동일한 임베딩 의미를 사용합니다. k-NN 검색은 의미적으로 유사한 상위 결과를 반환하고, OpenSearch 인덱스 업데이트는 시간당 신선도 요구를 흡수합니다. 개발 노력은 대부분 벡터 인덱스와 임베딩 파이프라인 구성입니다.

Aurora가 아닌 PostgresQL + pgvector는 수억 벡터 규모에서 인덱스 빌드 시간, 쿼리 지연, 운영 튜닝이 모두 부담이 되며, 항상 켜진 인스턴스 비용도 부담합니다.

Bedrock Knowledge Base와 맞춤 ingestion 파이프라인은 필요 이상으로 무겁습니다: KB는 ingestion·문서 수에 실용적 한계가 있어 2억+ 항목을 다루기 어색하며, Retrieve API는 맞춤 검색 튜닝을 위해 벡터 인덱스를 노출하지 않습니다.

19
문제 19
(2개 선택)

한 회사가 고객을 위해 기술 콘텐츠를 생성하기 위해 Amazon Bedrock을 사용합니다. 회사는 모델이 긴 기술 문서의 요약을 생성할 때 환각 출력의 급증을 최근에 경험했습니다. 모델 출력에는 부정확하거나 조작된 세부 정보가 포함됩니다. 회사의 현재 솔루션은 단일 입력에 전체 문서를 포함하는 기본 one-shot prompt와 함께 큰 foundation model(FM)을 사용합니다. 회사는 환각을 줄이고 사실적 정확도 목표를 충족할 솔루션이 필요합니다. 솔루션은 시간당 1,000건 이상의 문서를 처리하고 각 문서에 대해 3초 이내에 요약을 제공해야 합니다. 어떤 솔루션 조합이 이 요구사항을 충족합니까? (2개 선택)

Zero-shot chain-of-thought prompting은 모델이 단계별로 추론하고 요약을 생성하기 전에 중간 사실을 검증하도록 강제하며, 이는 긴 문서 요약 작업에서 환각을 줄이는 가장 검증된 기법 중 하나입니다. prompt 측 변경이라 지연·인프라가 거의 추가되지 않으며, 기존 one-shot 베이스라인과 비교 측정 가능합니다.

Bedrock Knowledge Base를 사용한 Retrieval Augmented Generation은 모델이 기억해야 한다고 요구하는 대신 요약을 소스 콘텐츠에 그라운딩합니다. 의미 청킹은 의미 단위(섹션, 발견사항)를 온전히 유지하고, 튜닝된 임베딩은 검색 관련성을 높여, 모델이 기억해야 할 무언가가 아니라 실제로 볼 수 있는 것을 요약하게 됩니다.

Bedrock Guardrails는 임의의 '환각 패턴'을 매칭할 수 없습니다 — 가드레일은 유해 카테고리, denied topics, PII, 그라운딩 점수에서 동작합니다. 환각 콘텐츠를 필터로 패턴 매칭하는 것은 지원되는 기능이 아닙니다.

temperature 매개변수를 늘리면 모델이 더 다양한(덜 결정적인) 출력을 만드는데, 이는 환각을 줄이는 게 아니라 경험적으로 늘립니다. 방향이 반대입니다.

긴 기술 문서에서 이미 실패하고 있는 단일 패스 전체 문서 요약을 계속하는 것은 실패 모드를 그대로 반복하는 것입니다 — 아무것도 바뀌지 않습니다.

20
문제 20

한 회사가 다양한 내부·외부 데이터 소스에 기반해 콘텐츠를 생성하는 생성형 AI(GenAI) 애플리케이션을 구축 중입니다. 회사는 생성된 출력이 완전히 추적 가능해야 한다고 보장하고자 합니다. 애플리케이션은 데이터 소스 등록을 지원해야 하고, 콘텐츠를 원본 소스에 귀속시키기 위한 메타데이터 태깅을 활성화해야 합니다. 또한 애플리케이션은 파이프라인 전반에 걸친 데이터 액세스와 사용의 감사 로그를 유지해야 합니다. 어떤 솔루션이 이 요구사항을 충족합니까?

Lake Formation은 Catalog 테이블 위에서 권한을 중앙화하지만, 문제가 기술하는 방식의 소스 수준에서 이종 데이터 소스를 등록하거나 메타데이터를 적용하지 않습니다. S3에 직접 객체를 태깅하는 것도 S3에만 한정되며 다른 소스로 확장되지 않습니다.

CloudWatch Logs는 애플리케이션·운영 로깅용이지 감사용이 아닙니다. Glue Catalog와 짝지어도 CloudWatch의 보존, 변경 불가능성, API별 세분화가 CloudTrail보다 약하기 때문에 감사 추적 요구가 충족되지 않습니다.

S3 객체 태깅은 S3 객체에 한정된 귀속만 다루며, Glue Data Catalog가 스키마를 관리하고 CloudTrail이 S3 액세스만 처리하는 구조는 cross-service 감사(Bedrock, Lambda, Glue 등)를 범위 밖에 둡니다. 감사 그림이 불완전합니다.

AWS Glue Data Catalog는 S3, RDS, Redshift 등 다양한 서비스에서 데이터 소스를 등록하고 그 출처와 귀속 태그를 포함한 메타데이터를 붙이기 위한 AWS 서비스입니다. AWS CloudTrail은 서비스 전반의 관리·데이터 평면 API 이벤트를 캡처하므로 GenAI 파이프라인 전체에서 누가, 언제, 무엇에 액세스했는지를 단일·변경 불가능한 감사 로그로 제공합니다. 두 서비스의 조합이 등록, 메타데이터 태깅, 종단 간 감사성을 별도 인프라 없이 충족합니다.

다른 AWS 자격증

AWS Certified Solutions Architecture - Associate (SAA-C03)

AWS Certified Solutions Architecture - Associate (SAA-C03)

Associate

AWS Certified AI Practitioner (AIF-C01)

AWS Certified AI Practitioner (AIF-C01)

Practitioner

AWS Certified Advanced Networking - Specialty (ANS-C01)

AWS Certified Advanced Networking - Specialty (ANS-C01)

Specialty

AWS Certified Cloud Practitioner (CLF-C02)

AWS Certified Cloud Practitioner (CLF-C02)

Practitioner

AWS Certified Data Engineer - Associate (DEA-C01)

AWS Certified Data Engineer - Associate (DEA-C01)

Associate

AWS Certified Developer - Associate (DVA-C02)

AWS Certified Developer - Associate (DVA-C02)

Associate

AWS Certified DevOps Engineer - Professional (DOP-C02)

AWS Certified DevOps Engineer - Professional (DOP-C02)

Professional

AWS Certified Machine Learning Engineer - Associate (MLA-C01)

AWS Certified Machine Learning Engineer - Associate (MLA-C01)

Associate

AWS Certified Security - Specialty (SCS-C02)

AWS Certified Security - Specialty (SCS-C02)

Specialty

AWS Certified Solutions Architect - Professional (SAP-C02)

AWS Certified Solutions Architect - Professional (SAP-C02)

Professional

지금 학습 시작하기

Cloud Pass를 다운로드하여 모든 AWS Certified Generative AI Developer - Professional (AIP-C01) 기출 문제를 풀어보세요.

Get it on Google PlayDownload on the App Store
Cloud PassCloud Pass

IT 자격증 문제풀이 앱

Get it on Google PlayDownload on the App Store

자격증

AWSGCPMicrosoftCiscoCompTIADatabricks

법률

FAQ개인정보 처리방침서비스 약관

회사

문의하기계정 삭제

© Copyright 2026 Cloud Pass, All rights reserved.

이동 중에도 모든 문제를 풀고 싶으신가요?

앱 받기

Cloud Pass를 다운로드하세요 — 모의고사, 학습 진도 추적 등을 제공합니다.