원서 개요
- 제목: Generative AI on AWS (AWS 기반의 생성형 AI 개발 실무)
부제: Building Context-Aware Multimodal Reasoning Applications (맥락 인식 멀티모달 추론 애플리케이션 개발 실무) - 공저자: Chris Fregly, Antje Barth, Shelbee Eigenbrode (AWS, Principal Solutions Architect, Developer Advocate for generative AI)
- 원서 출간: O’Reilly Media (2023.12.19 예정), 309p
- 한국어판 출간: 에이콘 출판사 (2024년 상반기 예정)
- 한국어판 문의: 에이콘 임지원 편집자 (jwrim@acornpub.co.kr)
대상독자
- CTO
- data engineer
- data scientist
- ML practitioner
- business analyst
- application developer
생성형 AI (이하 GenAI) 프로젝트 관리
- Use case definition
- Retrieval-augmented generation
- Model selection, Model fine-tuning
- Reinforcement learning from human feedback
- Model quantization, optimization, deployment
주요 내용
- Apply GenAI to your business use cases
- Determine which GenAI models are best suited to your task
- Perform prompt engineering and in-context learning
- LoRA: Fine-tune GenAI models on your datasets with low-rank adaptation
- RLHF: Align GenAI models to human values with reinforcement learning from human feedback
- RAG: Augment your model with retrieval-augmented generation
- LangChain, ReAct: Explore libraries to develop agents and actions
- Build GenAI applications with Amazon Bedrock
목차(장별 중략)
- 생성형 AI 활용 전략, 기반 기술과 개념, 프로젝트 라이프 사이클 관리 / Generative AI Use Cases, Fundamentals, and Project Life Cycle
Use Cases and Tasks
Foundation Models and Model Hubs
Generative AI Project Life Cycle
… - 프롬프트 엔지니어링, 맥락 기반 학습 / Prompt Engineering and In-Context Learning
Prompts and Completions
Tokens
Prompt Engineering
In-Context Learning with Few-Shot Inference
… - 대규모 언어 기초 모델 / Large-Language Foundation Models
Large-Language Foundation Models
Tokenizers
Embedding Vectors
Transformer Architecture
… - 메모리 및 컴퓨팅 리소스 최적화 / Memory and Compute Optimizations
Memory Challenges
Data Types and Numerical Precision
Quantization
… - 모델 파인 튜닝 및 성능 검증 / Fine-Tuning and Evaluation
Instruction Fine-Tuning
Instruction Dataset
Evaluation
… - 파라미터 효율성 파인 튜닝 / Parameter-Efficient Fine-Tuning
Full Fine-Tuning Versus PEFT
LoRA and QLoRA
Prompt Tuning and Soft Prompts
… - 인간 협력 강화학습 기반의 모델 파인 튜닝 / Fine-Tuning with Reinforcement Learning from Human Feedback
Human Alignment: Helpful, Honest, and Harmless
Reinforcement Learning Overview
Train a Custom Reward Model
… - 모델 배포 최적화 / Model Deployment Optimizations
Model Optimizations for Inference
Large Model Inference Container
AWS Inferentia: Purpose-Built Hardware for Inference
… - RAG 및 에이전트를 이용한 맥락 인식 추론 애플리케이션 개발 / Context-Aware Reasoning Applications Using RAG and Agents
Large Language Model Limitations
Retrieval-Augmented Generation
RAG Orchestration and Implementation
… - 멀티모달 기초 모델 / Multimodal Foundation Models
Use Cases
Multimodal Prompt Engineering Best Practices
Image Generation and Enhancement
… - Stable Diffusion을 이용한 조건부 생성 및 파인 튜닝 / Controlled Generation and Fine-Tuning with Stable Diffusion
ControlNet
Fine-Tuning
Human Alignment with Reinforcement Learning from Human Feedback
… - Amazon Bedrock: 관리형 생성형 AI 서비스
Bedrock Foundation Models
Amazon Titan Foundation Models
Large Language Models
…



서문
After reading this book, you will understand the most common generative AI use cases and tasks addressed by industry and academia today. You will gain in-depth knowledge of how these cutting-edge generative models are built, as well as practical experience to help you choose between reusing an existing generative model or building one from scratch. You will then learn to adapt these generative AI models to your domain-specific datasets, tasks, and use cases that support your business
applications.
이 책을 읽은 후에는 오늘날 산업 및 학계에서 다루는 가장 일반적인 생성형 인공지능 사용 사례와 작업에 대한 이해를 얻게 될 것이다. 이러한 최신 생성 모델이 어떻게 구축되는지에 대한 깊은 지식을 습득하게 되며, 기존의 생성 모델을 재사용할지 또는 처음부터 새로 만들지 선택하는 데 도움이 되는 실용적인 경험을 쌓을 것이다. 그런 다음 도메인별 데이터셋, 작업 및 비즈니스 응용 프로그램을 지원하는 사용 사례에 이러한 생성형 인공지능 모델을 적용하는 방법을 배우게 될 것이다.
This book is meant for AI/ML enthusiasts, data scientists, and engineers who want to learn the technical foundations and best practices for generative AI model training, fine-tuning, and deploying into production. We assume that you are already familiar with Python and basic deep-learning components like neural networks, forward propagation, activations, gradients, and back propagations to understand the concepts used here.
이 책은 AI/ML 애호가, 데이터 과학자 및 엔지니어를 대상으로 하며, 생성형 AI 모델 교육, 세밀한 조정 및 프로덕션 환경으로 배포하는 기술적 기초와 최상의 사례를 배우려는 사람들을 위한 것이다. 우리는 여기서 사용되는 개념을 이해하기 위해 이미 Python 및 신경망, 순전파, 활성화, 그라디언트 및 역전파와 같은 기본적인 딥 러닝 구성 요소에 익숙하다고 가정한다.
A basic understanding of Python and deep learning frameworks such as TensorFlow or PyTorch should be sufficient to understand the code samples used throughout the book. Familiarity with AWS is not required to learn the concepts, but it is useful for some of the AWS-specific samples.
Python 및 TensorFlow 또는 PyTorch와 같은 딥 러닝 프레임워크에 대한 기본적인 이해가 있다면, 이 책 전체에 사용되는 코드 샘플을 이해하는 데 충분한다. AWS에 대한 익숙함은 개념을 이해하는 데 필요하지 않지만 AWS와 관련된 일부 샘플에 유용하다.
You will dive deep into the generative AI life cycle and learn topics such as prompt engineering, few-shot in-context learning, generative model pretraining, domain adaptation, model evaluation, parameter-efficient fine-tuning (PEFT), and reinforcement learning from human feedback (RLHF).
이 책에서는 생성형 AI 수명 주기에 심층적으로 집중하며, 프롬프트 엔지니어링, 퓨 샷 인 컨텍스트 학습, 생성 모델 사전 훈련, 도메인 적응, 모델 평가, 매개변수 효율적 세밀한 조정 (PEFT) 및 인간 피드백에 따른 강화 학습 (RLHF)과 같은 주제를 학습한다.
You will get hands-on with popular large language models such as Llama 2 and Falcon as well as multimodal generative models, including Stable Diffusion and IDEFICS. You will access these foundation models through the Hugging Face Model Hub, Amazon SageMaker JumpStart, or Amazon Bedrock managed service for generative AI.
당신은 Llama 2와 Falcon과 같은 인기있는 대규모 언어 모델, 그리고 Stable Diffusion과 IDEFICS와 같은 멀티모달 생성 모델과 실전 경험을 얻게 될 것이다. 이러한 기본 모델에는 Hugging Face Model Hub, Amazon SageMaker JumpStart 또는 생성형 AI를 위한 Amazon Bedrock 관리 서비스를 통해 접근할 수 있다.
You will also learn how to implement context-aware retrieval-augmented generation (RAG)1 and agent-based reasoning workflows.2 You will explore application frameworks and libraries, including LangChain, ReAct,3 and Program-Aided-Language models (PAL). You can use these frameworks and libraries to access your own custom data sources and APIs or integrate with external data sources such as web search and partner data systems.
또한 문맥을 고려한 검색 지원 생성 (RAG) 및 에이전트 기반 추론 워크플로우를 구현하는 방법을 배울 것이다. LangChain, ReAct 및 Program-Aided-Language 모델 (PAL)을 포함한 응용 프레임워크와 라이브러리를 탐구한다. 이러한 프레임워크와 라이브러리를 사용하여 자체 사용자 지정 데이터 원본 및 API에 액세스하거나 웹 검색 및 파트너 데이터 시스템과 같은 외부 데이터 원본과 통합할 수 있다.
Lastly, you will explore all of these generative concepts, frameworks, and libraries in the context of multimodal generative AI use cases across different content modalities such as text, images, audio, and video.
마지막으로, 여러분은 텍스트, 이미지, 오디오 및 비디오와 같은 다양한 콘텐츠 모드에서 다중 모달 생성형 AI 사용 사례의 맥락에서 이러한 생성 개념, 프레임워크 및 라이브러리를 모두 탐구하게 될 것이다.
And don’t worry if you don’t understand all of these concepts just yet. Throughout the book, you will dive into each of these topics in much more detail. With all of this knowledge and hands-on experience, you can start building cutting-edge generative AI applications that help delight your customers, outperform your competition, and increase your revenue!
또한 이러한 모든 개념을 아직 모두 이해하지 못하더라도 걱정할 필요는 없다. 이 책을 통해 각 주제를 더 자세히 다루게 될 것이다. 이러한 지식과 실전 경험을 토대로 고객을 기쁘게 하고 경쟁 상대를 능가하며 수익을 증가시킬 혁신적인 생성형 AI 응용 프로그램을 개발할 수 있을 것이다.






