베스트 AI 자격증 | AWS의 인공지능 입문시험 ‘AIF-C01’ 기출 유형 분석 (Practice Exam)

2026.01.05 / JUN

AI 시대를 맞아 AWS에서는 클라우드 기반의 AI 전문성을 평가하는 ‘AIF’라는 이름의 자격인증시험을 제공하고 있습니다. ‘하루가 다르게 급변하는 AI 전문성을 평가한다는 게 말이 돼?’라는 생각도 들었지만, 궁금함을 못 참고 이번 주 토요일 시험에 응시를 하고 말았네요. 100달러를 그냥 버릴 수는 없으니까 AWS와 Udemy를 돌며 개론 강의와 기출 유형을 파악중입니다. 시험 문제는 대략 아래와 같은 분위기로 나온다고 하는데요, AWS 공식 테스트 시험과 실제 시험은 대체로 매우 큰 격차를 보여왔다는 점 참고하며 보시기 바랍니다.


Practice Exam 01~05

AWS AIF TE 01 

A company needs to obtain AWS security and compliance documents for Amazon Bedrock.

Which AWS service provides these documents?

  1. AWS Artifact
  2. AWS Config
  3. AWS Inspector
  4. AWS Trusted Advisor

AWS AIF TE 02 

A medical company is developing an AI application. The company needs to store patient data locally to comply with regulations. The company wants to use Amazon S3 on Outposts to keep the data in the same country as the patient.

Which data governance concept is the company using?

  1. Data logging
  2. Data residency
  3. Data retention
  4. Data protection

AWS AIF TE 03 

A company wants to use a language model to generate human-like text for marketing materials. The company wants to ensure that the generated text is relevant and aligned with the company’s professional tone.

Which solution will meet these requirements with the LEAST operational effort?

  1. Use prompt engineering to guide the language model’s output.
  2. Create a custom language model by using company marketing data.
  3. Apply postprocessing techniques to filter and refine the generated text.
  4. Combine multiple language models through ensemble methods.

AWS AIF TE 04 

An ML specialist incorporated a large language model (LLM) in a proof of concept. The ML specialist wants to reduce the response randomness of the model.

Which change in inference parameter can reduce random responses?

  1. Reduce the temperature
  2. Increase Top P
  3. Increase Top K
  4. Reduce max_length

AWS AIF TE 05 

A food company wants to use generative AI to automatically generate individualized targeted marketing based on a product catalog and customer profiles.

Which solution will meet these requirements?

  1. Use Amazon Bedrock standalone third-party foundation model (FM).
  2. Implement a data lake on AWS that is customized to the product catalog.
  3. Implement human-in-the-loop monitoring to annotate the product catalog.
  4. Use an Amazon Bedrock knowledge base that uses company data sources.

Answers & Explanation 01~05

AWS AIF TE 01 

A company needs to obtain AWS security and compliance documents for Amazon Bedrock.

Which AWS service provides these documents?

  1. AWS Artifact <<
  2. AWS Config
  3. AWS Inspector
  4. AWS Trusted Advisor

정답: A. AWS Artifact
– AI 솔루션의 보안, 규정 준수 및 거버넌스(Domain 5) 영역의 핵심 서비스
– AWS Artifact는 AI 시스템이 다양한 거버넌스 및 규정 준수(Compliance) 요건을 충족하도록 돕는 서비스
– AI 모델과 시스템을 운영할 때는 데이터 프라이버시, 보안 표준 등 엄격한 규제를 따라야 하는데, AWS Artifact는 이러한 규정을 준수하고 있음을 입증하거나 관련 정보를 확인하는 데 사용- Audit Manager, Config, Inspector, CloudTrail 등 규정 준수 및 거버넌스를 지원 도구와 함께 사용
– AWS Artifact는 ‘보안, 자격 증명 및 규정 준수(Security, Identity, and Compliance)’ 카테고리 서비스
– Amazon Bedrock은 관리형 서비스이므로, 사용자는 이 서비스가 ISO, SOC 등의 규정을 준수하는지 확인하기 위해 AWS가 발행한 공식 감사 보고서(Audit Artifacts)가 필요합니다. 이러한 문서를 다운로드하거나 검토할 수 있는 유일한 서비스가 바로 AWS Artifact

AWS AIF TE 02 

A medical company is developing an AI application. The company needs to store patient data locally to comply with regulations. The company wants to use Amazon S3 on Outposts to keep the data in the same country as the patient.

Which data governance concept is the company using?

  1. Data logging
  2. Data residency <<
  3. Data retention
  4. Data protection

정답: B. Data residency(데이터 거주성)
정답이 ‘Data residency’인 이유• 핵심 단서: 문제에서 “데이터를 현지에 저장(store patient data locally)”해야 하고 “환자와 동일한 국가에 유지(keep the data in the same country)”해야 한다는 규정을 언급하고 있습니다.• 개념 정의: **데이터 거주성(Data residency)**은 규제나 정책적인 이유로 데이터를 특정 지리적 위치(국가 또는 지역) 내에 저장해야 하는 요건을 의미합니다.• 시험 가이드 연계: AWS Certified AI Practitioner 시험 가이드의 **[Task Statement 5.2]**는 데이터 거버넌스 전략의 일환으로 **’residency(거주성)’**를 명시적으로 포함하고 있습니다. AWS Outposts는 이러한 데이터 거주성 요건을 충족하기 위해 AWS 인프라를 온프레미스(현지 데이터 센터)로 확장해 주는 대표적인 서비스입니다.
다른 보기가 정답이 아닌 이유나머지 보기들도 데이터 거버넌스의 중요한 요소이지만, 문제의 시나리오인 ‘지리적 위치 제한’과는 거리가 멉니다.• 1. Data logging (데이터 로깅): 이는 시스템에서 발생하는 이벤트나 사용자 활동(누가 언제 무엇을 했는지)을 기록하는 프로세스를 의미합니다. 데이터의 위치와는 관련이 없습니다.• 3. Data retention (데이터 보존): 이는 데이터를 ‘얼마나 오랫동안’ 저장하고 언제 삭제할지 결정하는 정책(데이터 수명 주기)과 관련이 있습니다. 문제에서는 데이터 보관 기간을 언급하지 않았습니다.• 4. Data protection (데이터 보호): 이는 데이터를 무단 액세스로부터 지키기 위한 암호화(Encryption), 접근 제어(Access Control) 등의 보안 조치를 포괄하는 개념입니다. 물론 데이터를 현지에 두는 것도 보호의 일환일 수 있지만, ‘동일한 국가에 유지’라는 구체적인 지리적 제약 사항을 지칭하는 전문 용어는 Data residency입니다.

AWS AIF TE 03 

A company wants to use a language model to generate human-like text for marketing materials. The company wants to ensure that the generated text is relevant and aligned with the company’s professional tone.

Which solution will meet these requirements with the LEAST operational effort?

  1. Use prompt engineering to guide the language model’s output. <<
  2. Create a custom language model by using company marketing data.
  3. Apply postprocessing techniques to filter and refine the generated text.
  4. Combine multiple language models through ensemble methods.

정답: A. Use prompt engineering to guide the language model’s output
그 이유는 문제의 핵심 제약 사항인 **”가장 적은 운영 노력(LEAST operational effort)”**과 “전문적인 어조(professional tone)” 조정이라는 요구 사항을 가장 효율적으로 충족하기 때문
1. 정답이 ‘Prompt Engineering’인 이유• 가장 적은 운영 노력: 프롬프트 엔지니어링은 모델의 가중치(Weights)를 변경하거나 인프라를 구축할 필요 없이, 입력 텍스트(프롬프트)를 조정하여 모델의 동작을 제어하는 기법입니다. 이는 모델을 처음부터 훈련하거나 미세 조정(Fine-tuning)하는 것에 비해 압도적으로 적은 시간과 리소스가 소요됩니다.• 어조 및 스타일 조정에 적합: 시험 가이드의 **[Task Statement 3.2: Choose effective prompt engineering techniques]**에서는 프롬프트 엔지니어링의 목표 중 하나로 “응답 품질 개선(response quality improvement)”과 “구체성(specificity)”을 언급합니다. 마케팅 자료 생성 시 특정 페르소나(Persona)를 부여하거나 “전문적인 어조로 작성해 줘”라고 지시하는 것만으로도 요구 사항을 충족할 수 있습니다.• 시험 범위와의 연관성: AWS AIF-C01 시험은 ‘파운데이션 모델의 응용’ 영역에서 프롬프트 엔지니어링의 개념(context, instruction 등)과 모범 사례를 비중 있게 다룹니다.
2. 다른 보기가 정답이 아닌 이유• 2. Create a custom language model (사용자 지정 언어 모델 생성): 이는 **[Task Statement 3.3: Describe the training and fine-tuning process for FMs]**에 해당합니다. 사용자 지정 모델을 만드는 것은 데이터 수집, 정제, 훈련, 검증 등 막대한 운영 노력과 비용, 시간이 필요하므로 “가장 적은 운영 노력”이라는 조건에 위배됩니다.• 3. Apply postprocessing techniques (후처리 기술 적용): 생성된 텍스트를 사후에 필터링하거나 수정하려면 별도의 로직이나 코드를 개발하고 유지 관리해야 합니다. 프롬프트 엔지니어링을 통해 생성 단계에서 올바른 어조를 유도하는 것이 후처리 시스템을 구축하는 것보다 훨씬 효율적입니다.• 4. Combine multiple language models through ensemble methods (앙상블 방식을 통한 다중 모델 결합): 여러 모델을 실행하고 결과를 조합하는 것은 추론 비용과 복잡성을 크게 증가시킵니다. 단순한 마케팅 텍스트 생성을 위해 앙상블 모델을 사용하는 것은 과도한 엔지니어링(Over-engineering)입니다.
결론적으로: 기존 파운데이션 모델(FM)은 이미 뛰어난 언어 능력을 갖추고 있으므로, 단순히 **’프롬프트 엔지니어링’**을 통해 “전문적인 마케팅 담당자처럼 행동해”라고 지시하는 것이 가장 빠르고 효율적인(Least operational effort) 해결책입니다.

>> AWS AIF TE 04 

An ML specialist incorporated a large language model (LLM) in a proof of concept. The ML specialist wants to reduce the response randomness of the model.

Which change in inference parameter can reduce random responses?

  1. Reduce the temperature <<
  2. Increase Top P
  3. Increase Top K
  4. Reduce max_length

정답: A. Reduce the temperature 
그 이유는 시험 가이드에서 “추론 매개변수(inference parameters)가 모델 응답에 미치는 영향”을 이해하는 것을 명시적인 평가 목표로 삼고 있으며, **Temperature(온도)**가 무작위성을 제어하는 가장 대표적인 매개변수이기 때문입니다.
1. 정답이 ‘Reduce the temperature’인 이유• 작동 원리: Temperature는 모델이 다음 토큰(단어)을 선택할 때 확률 분포를 얼마나 ‘평탄하게’ 혹은 ‘뾰족하게’ 만들지를 결정하는 매개변수입니다.• 낮은 온도 (< 1.0): 확률이 높은 단어를 선택할 가능성을 극대화합니다. 결과적으로 모델의 응답이 **결정론적(deterministic)**이고 반복적이며 보수적으로 변합니다. 즉, 무작위성(Randomness)이 줄어듭니다.• 높은 온도 (> 1.0): 확률이 낮은 단어도 선택될 기회를 줍니다. 결과적으로 응답이 창의적이고 다양해지지만, 무작위성이 증가합니다.• 시험 가이드 근거: 출처의 Task Statement 3.1 목표(Objectives) 섹션에는 “Describe the effect of inference parameters on model responses (for example, temperature, input/output length)”라고 명시되어 있어, 이 개념이 시험 범위에 정확히 포함됨을 확인할 수 있습니다.
2. 다른 보기가 정답이 아닌 이유나머지 보기들은 무작위성을 줄이는 것이 아니라 오히려 늘리거나, 무작위성과 관련 없는 설정을 다루고 있습니다.• 2. Increase Top P (Top P 증가): Top P(Nucleus Sampling)는 누적 확률이 P가 될 때까지 상위 토큰들을 후보군으로 자르는 방식입니다. Top P 값을 높이면(Increase) 후보군에 포함되는 단어의 수가 늘어나므로, 모델이 더 다양한(덜 뻔한) 단어를 선택할 확률이 높아집니다. 즉, 무작위성이 증가합니다.• 3. Increase Top K (Top K 증가): Top K는 확률이 높은 상위 K개의 토큰만 후보로 남기는 방식입니다. K 값을 높이면(Increase)(예: 10개에서 50개로) 선택지가 많아지므로 결과의 다양성과 무작위성이 증가합니다.• 4. Reduce max_length (최대 길이 감소): 이는 생성되는 텍스트의 길이를 제한하는 설정입니다. 문장을 짧게 끊을 수는 있지만, 생성되는 단어들의 선택 과정 자체를 더 결정론적으로 만들지는 못하므로 무작위성 감소와는 직접적인 관련이 없습니다.
비유를 들어 설명하자면:AI 모델을 **’셰프’**라고 생각하고, **Temperature(온도)**를 **’모험심 수치’**라고 가정해 봅시다.• 온도를 낮추면(Reduce Temperature): 셰프에게 **”가장 정석적인 레시피대로만 요리해”**라고 지시하는 것입니다. 언제 시켜도 똑같은 맛(낮은 무작위성)이 나옵니다.• 온도를 높이면: 셰프에게 “창의적으로 아무거나 넣어봐”라고 하는 것과 같습니다. 매번 맛이 달라집니다.• Top P/Top K를 높이면: 셰프가 사용할 수 있는 **’식재료 창고의 문을 활짝 여는 것’**과 같습니다. 쓸 수 있는 재료가 많아지니 결과물이 다양해지고 예측하기 어려워집니다(높은 무작위성).

AWS AIF TE 05 

A food company wants to use generative AI to automatically generate individualized targeted marketing based on a product catalog and customer profiles.

Which solution will meet these requirements?

  1. Use Amazon Bedrock standalone third-party foundation model (FM).
  2. Implement a data lake on AWS that is customized to the product catalog.
  3. Implement human-in-the-loop monitoring to annotate the product catalog.
  4. Use an Amazon Bedrock knowledge base that uses company data sources. <<

정답: D. Use an Amazon Bedrock knowledge base that uses company data sources
그 이유는 이 시나리오가 RAG(검색 증강 생성) 패턴의 전형적인 예시이며, AWS에서 이를 구현하는 관리형 기능이 바로 Amazon Bedrock Knowledge Bases이기 때문입니다.
1. 정답이 ‘Amazon Bedrock Knowledge Bases’인 이유• RAG (Retrieval Augmented Generation)의 필요성: 문제의 핵심은 “제품 카탈로그와 고객 프로필(product catalog and customer profiles)”이라는 회사의 고유한 데이터를 기반으로 마케팅 자료를 생성해야 한다는 점입니다. 일반적인 파운데이션 모델(FM)은 회사의 비공개 데이터를 학습하지 않았으므로, 외부 데이터 소스에서 관련 정보를 검색(Retrieval)하여 모델에 제공해야 합니다,.• Amazon Bedrock Knowledge Bases의 역할: Amazon Bedrock 설명서에 따르면, Knowledge Bases(기술 자료) 기능은 “데이터 소스를 업로드하여 파운데이션 모델의 응답 생성을 증강(augment)”하는 데 사용됩니다. 이를 통해 모델은 회사의 제품 정보와 고객 데이터를 참조하여 개인화된 마케팅 콘텐츠를 정확하게 생성할 수 있습니다.• 시험 가이드와의 일치: AWS AIF-C01 시험 가이드의 **[Task Statement 3.1]**에서는 “RAG를 정의하고 비즈니스 애플리케이션(예: Amazon Bedrock Knowledge Bases)을 설명하는 것”을 명시적인 평가 목표로 삼고 있습니다.
2. 다른 보기가 정답이 아닌 이유• 1. Use Amazon Bedrock standalone third-party foundation model (FM): 독립형(Standalone) FM은 일반적인 언어 능력은 뛰어나지만, 이 회사의 특정 제품 카탈로그나 고객 정보는 알지 못합니다. 외부 지식 연결 없이 모델만 사용할 경우, 존재하지 않는 제품을 지어내는 ‘환각(Hallucination)’이 발생하거나 일반적인 내용만 생성할 것입니다.• 2. Implement a data lake on AWS that is customized to the product catalog: 데이터 레이크(Data Lake)는 데이터를 저장하는 스토리지 인프라입니다. 데이터를 저장하는 것만으로는 마케팅 자료를 ‘생성’하는 AI 기능을 수행할 수 없습니다. 이는 솔루션의 일부일 수는 있지만, 문제 해결을 위한 전체 솔루션은 아닙니다.• 3. Implement human-in-the-loop monitoring to annotate the product catalog: Human-in-the-loop (HITL)은 주로 모델의 성능을 평가하거나, 데이터를 라벨링하여 미세 조정(Fine-tuning)을 준비할 때 사용됩니다. 이는 데이터를 ‘주석(annotate)’ 처리하는 과정이지, 마케팅 자료를 자동으로 ‘생성’하는 솔루션이 아닙니다.
비유를 들어 설명하자면:• **독립형 FM (옵션 1)**은 **’글 잘 쓰는 신입 사원’**입니다. 글솜씨는 좋지만 우리 회사 제품에 대해서는 하나도 모릅니다.• **데이터 레이크 (옵션 2)**는 **’제품 설명서가 가득한 창고’**입니다. 창고만 있어서는 홍보 문구가 저절로 써지지 않습니다.• **Bedrock Knowledge Base (옵션 4)**는 **’제품 설명서를 손에 쥐여준 신입 사원’**입니다. 글솜씨(GenAI)와 회사 정보(Knowledge Base)가 결합되어, 제품에 맞는 정확한 홍보 문구를 작성할 수 있습니다.

첫 포스팅: 2026.01.05 / 포스트 작성: JUN (naebon@naver.com)

Leave a Reply