更新时间:2024-08-13 15:52:36
封面
版权信息
内容提要
推荐语(排名不分先后)
前言
资源与支持
第1章 大模型概述
1.1 大模型介绍
1.1.1 生成原理
1.1.2 关键技术
1.1.3 关键术语
1.2 大模型分类
1.2.1 按模型结构划分
1.2.2 按模态划分
1.2.3 按微调方式划分
1.2.4 带插件系统的大模型
1.3 大模型的开发流程
1.3.1 确定项目目标
1.3.2 数据准备
1.3.3 模型设计
1.3.4 模型训练
1.3.5 模型部署
1.3.6 模型应用
1.4 应用场景
1.5 未来发展方向
1.5.1 AI智能体
1.5.2 具身智能
1.6 小结
1.7 课后习题
第2章 数据预处理
2.1 文本数据预处理
2.1.1 构造方法
2.1.2 构造流程
2.1.3 处理手段
2.1.4 常用类库
2.2 图像数据预处理
2.2.1 图像去噪
2.2.2 图像重采样
2.2.3 图像增强
2.3 图文对数据预处理
2.4 Datasets库
2.4.1 安装与配置
2.4.2 使用方法
2.5 小结
2.6 课后习题
第3章 Transformer
3.1 注意力机制
3.1.1 自注意力机制
3.1.2 多头自注意力机制
3.2 Transformer简介
3.2.1 位置编码
3.2.2 整体结构
3.2.3 稀疏Transformer
3.3 Visual Transformer简介
3.3.1 模型结构
3.3.2 与Transformer对比
3.4 Q-Former
3.5 transformers库
3.5.1 基本组成
3.5.2 使用方法
3.5.3 微调实践
3.6 小结
3.7 课后习题
第4章 预训练
4.1 预训练介绍
4.1.1 发展历程
4.1.2 模型类型
4.1.3 掩码预训练
4.2 预训练任务
4.3 应用于下游任务的方法
4.3.1 迁移学习
4.3.2 微调
4.4 预训练模型的应用
4.5 小结
4.6 课后习题
第5章 训练优化
5.1 模型训练挑战
5.2 训练优化技术
5.2.1 数据并行
5.2.2 模型并行
5.2.3 流水线并行
5.2.4 混合精度训练
5.3 训练加速工具
5.3.1 DeepSpeed
5.3.2 Megatron-LM
5.3.3 Colossal-AI
5.3.4 BMTrain
5.4 小结
5.5 课后习题
第6章 模型微调
6.1 监督微调
6.2 PEFT技术
6.2.1 Adapter tuning
6.2.2 Prefix tuning
6.2.3 Prompt tuning
6.2.4 P-tuning v1
6.2.5 P-tuning v2
6.2.6 LoRA
6.2.7 QLoRA
6.3 PEFT库