更新时间:2020-06-03 18:27:01
封面
版权信息
译者序
前言
第1章 自然语言处理
1.1 本章概览
1.2 自然语言处理的基础知识
1.3 自然语言处理的能力
1.4 自然语言处理中的应用
1.4.1 文本预处理
1.4.2 文本预处理技术
1.5 词嵌入
1.6 本章小结
第2章 自然语言处理的应用
2.1 本章概览
2.2 词性标注
2.2.1 词性
2.2.2 词性标注器
2.3 词性标注的应用
2.4 分块
2.5 加缝
2.6 命名实体识别
2.6.1 命名实体
2.6.2 命名实体识别器
2.6.3 命名实体识别的应用
2.6.4 命名实体识别器类型
2.7 本章小结
第3章 神经网络
3.1 本章概览
3.1.1 深度学习简介
3.1.2 机器学习与深度学习的比较
3.2 神经网络
3.3 训练神经网络
3.3.1 计算权重
3.3.2 损失函数
3.3.3 梯度下降算法
3.3.4 反向传播
3.4 神经网络的设计及其应用
3.4.1 有监督神经网络
3.4.2 无监督神经网络
3.5 部署模型即服务的基础
3.6 本章小结
第4章 卷积神经网络
4.1 本章概览
4.2 理解CNN的架构
4.2.1 特征提取
4.2.2 随机失活
4.2.3 卷积神经网络的分类
4.3 训练CNN
4.4 CNN的应用领域
4.5 本章小结
第5章 循环神经网络
5.1 本章概览
5.2 神经网络的早期版本
5.3 RNN
5.3.1 RNN架构
5.3.2 BPTT
5.4 更新和梯度流
5.4.1 调整权重矩阵Wy
5.4.2 调整权重矩阵Ws
5.4.3 关于更新Wx
5.5 梯度
5.5.1 梯度爆炸
5.5.2 梯度消失
5.5.3 Keras实现RNN
5.5.4 有状态与无状态
5.6 本章小结
第6章 门控循环单元
6.1 本章概览
6.2 简单RNN的缺点
6.3 门控循环单元
6.3.1 门的类型
6.3.2 更新门
6.3.3 重置门
6.3.4 候选激活函数
6.3.5 GRU变体
6.4 基于GRU的情感分析
6.5 本章小结
第7章 长短期记忆网络
7.1 本章概览
7.1.1 LSTM
7.1.2 遗忘门
7.2 输入门和候选单元状态
7.3 输出门和当前激活
7.4 神经语言翻译
7.5 本章小结
第8章 自然语言处理前沿
8.1 本章概览
8.1.1 注意力机制
8.1.2 注意力机制模型
8.1.3 使用注意力机制的数据标准化
8.1.4 编码器
8.1.5 解码器
8.1.6 注意力机制
8.1.7 α的计算
8.2 其他架构和发展状况
8.2.1 transformer
8.2.2 BERT
8.2.3 Open AI GPT-2
8.3 本章小结