更新时间:2023-09-07 19:03:25
封面
版权信息
内容简介
序
前言
第1章 线性代数的基本概念
1.1 向量和深度学习
1.2 向量距离计算
1.3 向量的基本性质
1.3.1 向量的基本运算
1.3.2 线性相关和线性无关
1.3.3 向量的投影和正交
1.4 矩阵
1.4.1 矩阵的基本概念
1.4.2 矩阵和神经网络
1.4.3 矩阵的秩
1.5 一些特殊的矩阵
1.5.1 矩阵的逆和广义逆
1.5.2 正交矩阵
第2章 线性代数在深度学习中的应用
2.1 特征值和特征向量
2.1.1 特征值和特征向量的定义
2.1.2 一般矩阵的特征分解
2.1.3 对称矩阵的特征分解
2.2 奇异值分解
2.3 正定矩阵
2.4 矩阵的范数和神经网络
2.5 主成分分析
2.6 推荐系统中的矩阵分解
第3章 微积分的基本概念
3.1 导数的定义和几何意义
3.2 复杂函数求导
3.3 导数的存在性
3.4 多元函数求导
3.5 二阶导数和高阶导数
3.6 函数的极大值和极小值
3.6.1 一元函数的极大值和极小值
3.6.2 多元函数的凹凸性和海森矩阵
3.6.3 凸优化证明
第4章 微积分在深度学习中的应用
4.1 梯度下降法
4.1.1 梯度下降法在深度学习中的应用
4.1.2 泰勒公式和梯度下降法
4.1.3 牛顿迭代法
4.2 梯度下降法的缺点
4.3 矩阵求导术
4.3.1 标量对向量和矩阵求导
4.3.2 向量对向量求导
4.3.3 链式法则
4.4 常见激活函数及其导数
4.5 常见损失函数及其导数
4.5.1 分类和回归
4.5.2 哈夫曼树和负采样
4.5.3 度量学习
4.6 积分和求和
4.6.1 积分和不定积分
4.6.2 多重积分
4.6.3 分类模型的效果指标AUC
第5章 概率的基本概念
5.1 概率入门
5.2 联合概率和条件概率
5.3 贝叶斯定理
5.4 连续概率分布
5.5 均值和方差
5.6 相关性
5.7 正态分布
5.7.1 正态分布的基本概念和性质
5.7.2 正态分布和逻辑回归
第6章 概率在深度学习中的应用
6.1 概率分布之间的距离
6.2 最大似然估计
6.3 Logit和Softmax
6.3.1 二分类的Logit
6.3.2 多分类的Softmax
6.4 语言模型
6.5 概率悖论
6.5.1 辛普森悖论
6.5.2 基本比率谬误
6.5.3 罗杰斯现象
6.5.4 伯克森悖论
6.6 统计学基础
6.6.1 卡方分布和学生分布
6.6.2 假设检验
6.6.3 AB测试
6.7 各类散列变换
6.7.1 特征Hash
6.7.2 MD5
6.7.3 特征空间的投影
6.7.4 simhash
6.7.5 minhash
6.8 分类器性能的极限
6.8.1 最大AUC
6.8.2 贝叶斯错误率
封底