更新时间:2021-03-26 23:55:00
封面
版权信息
作者简介
内容简介
前言
盘古人工智能框架开发专题篇
第1章 导论:为什么人工智能是必然的未来
1.1 为什么一定需要人工智能
1.2 人工智能为何如此强大
1.3 学习人工智能的正道
1.4 人工智能、机器学习、深度学习三者之间的关系
1.5 人工智能的十大经典应用场景
1.6 人工智能在海量数据处理中不可替代的原因
1.7 本书开发环境的安装
第2章 盘古人工智能框架多层次神经网络的实现
2.1 盘古人工智能框架
2.2 实现神经网络的节点结构
2.3 实现神经网络层之间节点的连接
2.4 如何初始化神经网络的权重
2.5 实现多个隐藏层
第3章 盘古人工智能框架的前向传播功能
3.1 前向传播功能
3.2 在每个节点上增加数据的输入和计算结果
3.3 实现前向传播算法
3.4 使用Sigmoid函数作为激活函数
3.5 测试前向传播算法并分析计算结果
第4章 盘古人工智能框架的反向传播功能
4.1 深度学习是如何学习的
4.2 实现反向传播算法
4.3 反向传播算法测试及分析计算结果
第5章 盘古人工智能框架的损失度计算及其可视化
5.1 关于损失度的思考——所有人工智能框架终身的魔咒
5.2 编码实现损失度并进行测试
5.3 损失度可视化运行结果
第6章 通过特征归一化和自适应学习优化盘古人工智能框架
6.1 盘古人工智能框架性能测试及问题剖析
6.2 使用特征归一化进行性能优化
6.3 使用自适应学习进行性能优化
第7章 盘古人工智能框架实现方法大总结
7.1 盘古人工智能框架性能测试
7.2 神经网络实现及和TensorFlow的对比
7.3 前向传播算法实现及其和TensorFlow的算法对比
7.4 反向传播算法实现及与TensorFlow的对比
7.5 损失度计算实现与TensorFlow的对比
7.6 人工智能盘古框架源代码
第8章 使用矩阵的方式编写人工智能框架
8.1 使用矩阵编写人工智能框架
8.2 测试及分析计算结果
8.3 对使用矩阵方式编写的人工智能框架进行优化
第9章 使用四种性能优化矩阵编写人工智能框架
9.1 梯度下降陷阱
9.2 增加和调整alpha参数
9.3 人工智能框架的改进优化
第10章 人工智能及感知元解密
10.1 人工智能是什么,怎么做,前景为什么好
10.2 计算机视觉面临的困境及突破
10.3 感知器解密
10.4 计算机图像识别
第11章 神经网络结构及Sigmoid函数
11.1 神经网络实现与非门
11.2 神经网络为什么能够完成各类计算
11.3 神经网络的结构解密
11.4 Sigmoid函数背后的设计和实现密码
11.5 Sigmoid函数的弱点及改进
第12章 用神经网络识别手写数字
12.1 神经网络识别手写数字的原理
12.2 为何识别数字的三层神经网络输出层为10个神经元
12.3 MINST数据集图片库解析
12.4 使用PyTorch框架编码实现MNIST手写数字识别程序
第13章 人工智能框架编写中关于损失度及梯度下降的设计与实现
13.1 损失函数的本质剖析
13.2 梯度下降的本质
13.3 随机梯度下降法的设计和实现
13.4 通过一个简单示例理解梯度下降
第14章 MNIST数字识别
14.1 MNIST数据的加载
14.2 神经网络的初始化
14.3 前向传播和反向传播函数
14.4 小批量随机梯度下降
14.5 损失函数及评估函数
14.6 超参数调优
第15章 从矩阵视角剖析神经网络的运行过程
15.1 点积和外积的本质
15.2 从矩阵的视角剖析神经网络的计算过程
15.3 神经网络中的损失函数
15.4 人工智能框架神经网络四个核心数学公式
第16章 Spark+PyTorch开发应用
16.1 PyTorch深度学习框架案例
16.2 Spark+Alluxio+PyTorch综合开发案例
机器学习案例实战篇
第17章 机器学习数据的预处理
17.1 预处理机器学习使用的数据的原因
17.2 数据的获取及分析
17.3 使用第三方库(NumPy、Pandas、Matplotlib)预处理数据
17.4 导入数据
17.5 采用面向对象模块化的方式预处理数据
17.6 实际生产环境中如何处理数据缺失的情况
17.7 分类数据处理
17.8 把数据分为训练集和测试集
17.9 特征缩放的意义及具体方法