更新时间:2024-05-11 19:51:03
封面
版权信息
作者简介
前言
第1章 深度学习中的AI大模型
1.1 AI大模型在人工智能领域的兴起
1.2 深度学习框架入门
第2章 分布式系统:AI大模型的诞生之所
2.1 深度学习与分布式系统
2.2 AI大模型训练方法
2.3 异构训练
2.4 实战分布式训练
第3章 分布式训练:上千台机器如何共同起舞
3.1 并行策略基础原理
3.2 高级并行策略基础原理
3.3 实战分布式训练
第4章 AI大模型时代的奠基石 Transformer模型
4.1 自然语言处理基础
4.2 Transformer详解
4.3 Transformer的变体与扩展
第5章 AI大幅度提升Google搜索质量:BERT模型
5.1 BERT模型详解
5.2 高效降低内存使用的ALBERT模型
5.3 BERT模型实战训练
第6章 统一自然语言处理范式的T5模型
6.1 T5模型详解
6.2 统一BERT和GPT的BART模型
6.3 统一语言学习范式的UL2框架
6.4 T5模型预训练方法和关键技术
第7章 作为通用人工智能起点的GPT系列模型
7.1 GPT系列模型的起源
7.2 GPT-2模型详解
7.3 GPT-3模型详解
7.4 GPT-3模型构建与训练实战
第8章 兴起新一代人工智能浪潮:ChatGPT模型
8.1 能与互联网交互的WebGPT
8.2 能与人类交互的InstructGPT模型
8.3 ChatGPT和GPT-4
8.4 构建会话系统模型
第9章 百花齐放的自然语言模型:Switch Transfomer和PaLM
9.1 万亿参数稀疏大模型Switch Transformer
9.2 PaLM模型:优化语言模型性能
9.3 PaLM实战训练
第10章 实现Transformer向计算机视觉进军的ViT模型
10.1 Transformer在计算机视觉中的应用
10.2 视觉大模型的进一步发展:Transformer与卷积的融合
10.3 ViT模型构建与训练实战
参考文献
内容简介
封底