更新时间:2019-11-22 18:23:09
封面
版权信息
内容简介
前言
第1章 自然语言处理基础
1.1 认识自然语言处理
1.2 自然语言处理方面的任务
1.3 第一阶段:偏理论的理性主义
1.4 第二阶段:偏实践应用的经验主义
1.5 第三阶段:深度学习阶段
1.6 NLP中深度学习的局限性
1.7 NLP的应用场景
1.8 NLP的发展前景
1.9 总结
第2章 深度学习基础
2.1 深度学习介绍
2.2 深度学习演变简述
2.3 神经网络介绍
2.4 神经网络的基本结构
2.5 两层神经网络(多层感知器)
2.6 多层神经网络(深度学习)
2.7 编码器-解码器网络
2.8 随机梯度下降
2.9 反向传播
2.10 总结
第3章 TensorFlow
3.1 TensorFlow概念解读
3.2 TensorFlow主要特征
3.3 TensorFlow安装
3.4 TensorFlow计算图
3.5 TensorFlow张量和模型会话
3.6 TensorFlow工作原理
3.7 通过一个示例来认识TensorFlow
3.8 TensorFlow客户端
3.9 TensorFlow中常见元素解读
3.10 变量作用域机制
3.11 实现一个神经网络
3.12 总结
第4章 词嵌入
4.1 分布式表示
4.2 Word2vec模型(以Skip-Gram为例)
4.3 原始Skip-Gram模型和改进Skip-Gram模型对比分析
4.4 CBOW模型
4.5 Skip-Gram和CBOW对比
4.6 词嵌入算法的扩展
4.7 结构化Skip-Gram和连续窗口模型
4.8 GloVe模型
4.9 使用Word2Vec进行文档分类
4.10 总结
第5章 卷积神经网络与句子分类
5.1 认识卷积神经网络
5.2 输入层
5.3 卷积运算层
5.4 激活函数
5.5 池化层
5.6 全连接层
5.7 整合各层并使用反向传播进行训练
5.8 常见经典卷积神经网络
5.9 利用CNN对MNIST数据集进行图片分类
5.10 利用CNN进行句子分类
5.11 总结
第6章 循环神经网络
6.1 计算图及其展开
6.2 RNN解读
6.3 通过时间的反向传播算法
6.4 RNN的应用类型
6.5 利用RNN生成文本
6.6 输出新生成的文本片段
6.7 评估RNN的文本结果输出
6.8 困惑度——文本生成结果质量的度量
6.9 具有上下文特征的循环神经网络——RNN-CF
6.10 使用RNN-CF生成的文本
6.11 总结
第7章 长短期记忆
7.1 LSTM简述
7.2 LSTM工作原理详解
7.3 LSTM与标准RNN的区别
7.4 LSTM如何避免梯度消失和梯度爆炸问题
7.5 优化LSTM
7.6 LSTM的其他变体
7.7 总结
第8章 利用LSTM自动生成文本
8.1 文本到文本的生成
8.2 意义到文本的生成
8.3 数据到文本的生成
8.4 文本自动生成前的数据准备
8.5 实现LSTM
8.6 标准LSTM与带有窥视孔连接和GRU的LSTM的比较
8.7 优化LSTM——集束搜索
8.8 改进LSTM——使用词而不是n-gram生成文本
8.9 使用TensorFlow RNN API
8.10 总结
第9章 利用LSTM实现图像字幕自动生成
9.1 简要介绍
9.2 发展背景
9.3 利用深度学习框架从图像中生成字幕
9.4 评估指标和基准
9.5 近期研究
9.6 图像字幕的产业布局
9.7 详解图像字幕自动生成任务