更新时间:2023-06-19 16:04:31
封面
版权信息
内容简介
推荐序一
推荐序二
前言
第1篇 计算机视觉开发环境的搭建
第1章 Python编程环境
1.1 Python语言简介
1.2 Python脚本的运行方式
1.3 Anaconda虚拟环境管理器
1.4 使用Anaconda建立虚拟环境
第2章 搭建三层的图像分类神经网络
2.1 下载数据集
2.2 探索数据集
2.3 构建、编译和训练神经网络
2.4 使用神经网络进行批量预测
2.5 将预测结果可视化
第2篇 计算机视觉模型从实验室到生产环境的部署
第3章 图片数据集的处理
3.1 数据集的预处理
3.2 数据集的制作
3.3 数据集的读取和验证
3.4 数据管道的优化处理
第4章 迁移学习和神经网络的设计
4.1 迁移学习的概念和花卉分类应用
4.2 下载MobileNet
4.3 设置MobileNet
4.4 测试MobileNet的特征提取输入和输出
第5章 损失函数的基础原理
5.1 回归场景下常用的损失函数
5.2 回归场景下的损失函数实战
5.3 分类场景下的损失函数
5.4 自定义损失函数
第6章 神经网络的编译和训练
6.1 神经网络的编译
6.2 神经网络的训练
6.3 神经网络的保存
第7章 TensorFlow模型的部署方式
7.1 以Edge TPU为例进行边缘端模型部署
7.2 在服务器端部署模型
第3篇 神经网络的数学原理和TensorFlow计算框架
第8章 神经网络训练的数学原理和优化器
8.1 损失函数和神经网络训练的本质
8.2 使用符号微分法获得损失值的全局最小值
8.3 使用局部梯度下降法不断靠近损失函数的最小值
第9章 神经网络的编程范式和静态图转化机制
9.1 计算图和编程范式
9.2 静态图转化机制AutoGraph和装饰器@tf.function
9.3 TensorFlow神经网络模型的类继承关系
9.4 使用Keras的高阶API构建模型并进行可视化
第4篇 神经网络层的算法原理和训练过程控制
第10章 神经网络层的原理和资源开销
10.1 全连接层的原理和资源开销
10.2 激活函数的原理和代码实现
10.3 二维卷积的原理和资源开销
10.4 池化层的原理和实战
10.5 二维卷积层和池化层的感受野
10.6 随机失活算法和默认推理状态
10.7 批次归一化算法
10.8 制作神经网络的资源开销函数
第11章 使用计算加速硬件加快神经网络的训练
11.1 人工智能的数据类型和运算能力
11.2 人工智能计算中的数据类型匹配
11.3 人工智能硬件的运算能力评估
11.4 安装GPU版本的TensorFlow计算框架
11.5 使用卷积层和全连接层构建经典神经网络LeNet
第12章 自定义fit方法和回调机制
12.1 fit方法的执行机制和自定义fit方法
12.2 fit方法的回调机制和自定义回调函数
12.3 TensorFlow的高阶回调函数
12.4 训练过程监控和回调函数
第5篇 目标检测中的骨干网络
第13章 经典骨干网络AlexNet的原理解析
13.1 整体结构和数据增强
13.2 负责特征提取的第一、二层卷积层
13.3 负责特征提取的第三、四、五层卷积层
13.4 负责特征线性组合的第六、七、八层
13.5 使用继承子类方式建立的AlexNet神经网络
13.6 AlexNet的资源开销
第14章 经典小核卷积神经网络VGG的原理解析
14.1 VGG的宏观结构和微观特点
14.2 VGG16的第一、二个卷积块结构
14.3 VGG16的第三、四、五个卷积块结构
14.4 VGG五个卷积块的代码实现
14.5 VGG小核卷积技巧下的资源开销
14.6 VGG预训练模型的加载和下游网络
第15章 经典残差神经网络ResNet的原理解析
15.1 残差连接的原理和结构
15.2 瓶颈残差模块堆叠的输入和输出函数关系
15.3 瓶颈残差模块的输入和输出函数关系
15.4 堆叠函数关系和通用的ResNet网络结构
15.5 ResNet50 V2模型的案例解析
15.6 ResNet的资源开销评估
15.7 ResNet的迁移学习和权重参数加载
第16章 多尺度特征提取的神经网络DarkNet
16.1 DarkNet的基本处理单元
16.2 YOLO V3的骨干网络DarkNet53
16.3 YOLO V3简版模型的骨干网络DarkNet53-tiny
16.4 YOLO V4的骨干网络CSP-DarkNet