更新时间:2023-08-31 19:22:26
封面
版权信息
内容简介
前言
第1章 深度学习与应用框架
1.1 深度学习的概念
1.1.1 何为深度学习
1.1.2 与传统的“浅层学习”的区别
1.2 案例实战:文本的情感分类
1.2.1 第一步:数据的准备
1.2.2 第二步:数据的处理
1.2.3 第三步:模型的设计
1.2.4 第四步:模型的训练
1.2.5 第五步:模型的结果和展示
1.3 深度学习的流程、应用场景和模型分类
1.3.1 深度学习的流程与应用场景
1.3.2 深度学习的模型分类
1.4 主流深度学习的框架对比
1.4.1 深度学习框架的选择
1.4.2 本书选择:Keras与TensorFlow
1.5 本章小结
第2章 实战卷积神经网络——手写体识别
2.1 卷积神经网络理论基础
2.1.1 卷积运算
2.1.2 TensorFlow中的卷积函数
2.1.3 池化运算
2.1.4 softmax激活函数
2.1.5 卷积神经网络原理
2.2 案例实战:MNIST手写体识别
2.2.1 MNIST数据集的解析
2.2.2 MNIST数据集的特征和标签
2.2.3 TensorFlow 2.X编码实现
2.2.4 使用自定义的卷积层实现MNIST识别
2.3 本章小结
第3章 实战ResNet——CIFAR-100数据集分类
3.1 ResNet理论基础
3.1.1 ResNet诞生的背景
3.1.2 模块工具的TensorFlow实现
3.1.3 TensorFlow高级模块layers
3.2 案例实战:CIFAR-100数据集分类
3.2.1 CIFAR-100数据集的获取
3.2.2 ResNet残差模块的实现
3.2.3 ResNet网络的实现
3.2.4 使用ResNet对CIFAR-100数据集进行分类
3.3 本章小结
第4章 实战循环神经网络GRU——情感分类
4.1 情感分类理论基础
4.1.1 复习简单的情感分类
4.1.2 什么是GRU
4.1.3 TensorFlow中的GRU层
4.1.4 双向GRU
4.2 案例实战:情感分类
4.2.1 使用TensorFlow自带的模型来实现分类
4.2.2 使用自定义的DPCNN来实现分类
4.3 本章小结
第5章 实战图卷积——文本情感分类
5.1 图卷积理论基础
5.1.1 “节点”“邻接矩阵”和“度矩阵”的物理意义
5.1.2 图卷积的理论计算
5.1.3 图卷积神经网络的传播规则
5.2 案例实战:Cora数据集文本分类
5.2.1 Cora数据集简介
5.2.2 Cora数据集的读取与数据处理
5.2.3 图卷积模型的设计与实现
5.2.4 图卷积模型的训练与改进
5.3 案例实战:基于图卷积的情感分类(图卷积前沿内容)
5.3.1 文本结构化处理的思路与实现
5.3.2 使用图卷积对文本进行分类实战
5.3.3 图卷积模型的改进
5.4 本章小结
第6章 实战自然语言处理——编码器
6.1 编码器理论基础
6.1.1 输入层——初始词向量层和位置编码器层
6.1.2 自注意力层
6.1.3 ticks和LayerNormalization
6.1.4 多头自注意力
6.2 案例实战:简单的编码器
6.2.1 前馈层的实现
6.2.2 编码器的实现
6.3 案例实战:汉字拼音转化模型
6.3.1 汉字拼音数据集处理
6.3.2 汉字拼音转化模型的确定
6.3.3 模型训练部分的编写
6.3.4 推断函数的编写
6.4 本章小结
第7章 实战BERT——中文文本分类
7.1 BERT理论基础
7.1.1 BERT基本架构与应用
7.1.2 BERT预训练任务与Fine-Tuning
7.2 案例实战:中文文本分类
7.2.1 使用Hugging Face获取BERT预训练模型
7.2.2 BERT实战文本分类
7.3 拓展:更多的预训练模型
7.4 本章小结
第8章 实战自然语言处理——多标签文本分类
8.1 多标签分类理论基础
8.1.1 多标签分类不等于多分类
8.1.2 多标签分类的激活函数——sigmoid
8.2 案例实战:多标签文本分类
8.2.1 第一步:数据的获取与处理