更新时间:2024-04-24 17:32:45
封面
版权信息
内容提要
前言
第1章 大语言模型:辩论、争议与未来发展方向
1.1 新时代的曙光
1.2 LLM有意识吗
1.3 未来发展方向
1.4 小结
第2章 语言模型和分词
2.1 语言建模的挑战
2.2 统计语言建模
2.3 神经语言模型
2.4 评估语言模型
2.5 分词
2.6 小结
第3章 Transformer
3.1 Transformer编码器模块
3.2 编码器-解码器架构
3.3 位置嵌入
3.4 更长的上下文
3.5 外部记忆
3.6 更快、更小的Transformer
3.7 推理优化
3.8 小结
第4章 预训练目标和解码策略
4.1 模型架构
4.2 预训练目标
4.3 具有代表性的语言模型
4.4 解码策略
4.5 小结
第5章 上下文学习和轻量级微调
5.1 上下文学习
5.2 提示语言模型的校准
5.3 轻量级微调
5.4 小结
第6章 训练更大的模型
6.1 扩大尺度法则
6.2 涌现能力
6.3 人工智能加速器
6.4 并行
6.5 混合训练和低精度训练
6.6 其他节省内存的设计
6.7 小结
第7章 稀疏专家模型
7.1 为什么采用稀疏专家模型
7.2 路由算法
7.3 其他改进措施
7.4 小结
第8章 检索增强型语言模型
8.1 预训练检索增强型语言模型
8.2 词元级检索
8.3 通过高效和精简检索进行问答和多跳推理
8.4 检索增强型Transformer
8.5 检索增强型黑盒语言模型
8.6 视觉增强语言建模
8.7 小结
第9章 对齐语言模型与人类偏好
9.1 基于人类反馈进行微调
9.2 基于语言反馈进行微调
9.3 基于监督学习进行微调
9.4 基于人工智能反馈的强化学习
9.5 基于自我反馈进行迭代优化
9.6 基于人类偏好进行预训练
9.7 小结
第10章 减少偏见和有害性
10.1 偏见
10.2 有害性
10.3 偏见和有害性的检测与减少
10.4 小结
第11章 视觉语言模型
11.1 语言处理的多模态落地
11.2 不需要额外训练即可利用预训练模型
11.3 轻量级适配
11.4 图文联合训练
11.5 检索增强视觉语言模型
11.6 视觉指令调整
11.7 小结
第12章 环境影响
12.1 能源消耗和温室气体排放
12.2 估算训练模型的排放量
12.3 小结
参考文献