第1章 导 论1.1 人工智能1.1.1 人工智能的发展历史1.1.2 人工智能的流派1.2 机器学习1.3 深度学习1.3.1 深度学习的概念1.3.2 深度学习与机器学习、人工智能的关系1.3.3 深度学习的历史溯源1.3.4 深度学习与回归分析1.4 深度学习适用的领域1.4.1 图像识别1.4.2 语音识别1.4.3 自然语言处理1.4.4 棋牌竞技1.5 常用的深度学习框架1.5.1 Caffe1.5.2 TensorFlow1.5.3 PyTorch1.5.4 MXNet1.5.5 Keras1.6 本书使用的数据和代码说明第2章 神经网络的张量与数学基础2.1 张 量2.1.1 张量的定义2.1.2 张量的数据类型2.1.3 张量的创建方式2.1.4 应用:图像数据转张量2.2 张量的操作2.2.1 获取和改变张量形状2.2.2 提取张量中的元素2.2.3 张量的拼接与拆分2.3 张量的运算2.3.1 基本运算2.3.2 统计相关运算2.3.3 矩阵运算2.4 深度学习的导数基础2.4.1 单变量函数和导数2.4.2 多变量函数和偏导数2.4.3 复合函数和链式求导法则2.5 梯度下降算法的含义与公式2.6 本章小结第3章 前馈神经网络3.1 前馈神经网络的基本结构和常见激活函数3.1.1 神经元3.1.2 Sigmoid函数3.1.3 Tanh函数3.1.4 ReLU函数3.1.5 前馈神经网络的构成3.2 损失函数的设置3.3 梯度下降算法3.3.1 梯度下降算法的直观理解与定义3.3.2 小批量梯度下降算法3.3.3 动量梯度下降算法3.3.4 Nesterov梯度加速算法3.3.5 自适应梯度算法3.3.6 AdaDelta算法3.3.7 均方根加速算法3.3.8 自适应矩估计算法3.4 反向传播算法3.4.1 单个神经元的反向传播算法示例3.4.2 两层神经网络的反向传播算法示例3.5 过拟合3.5.1 偏差-方差分解3.5.2 正则化3.5.3 权重衰减3.5.4 丢弃法3.6 本章小结第4章 神经网络的PyTorch实现4.1 线性回归案例:颜值打分4.1.1 线性回归基础4.1.2 案例:颜值打分4.2 逻辑回归案例:性别识别4.2.1 逻辑回归基础4.2.2 案例:性别识别4.3 softmax回归案例:Fashion-MNIST数据集分类4.3.1 softmax回归基础4.3.2 案例:Fashion-MNIST数据集分类4.4 本章小结第5章 卷积神经网络基础5.1 卷积神经网络的基本结构5.2 卷积与池化的通俗理解5.2.1 卷积的通俗理解5.2.2 池化的通俗理解5.3 卷积操作5.3.1 卷积的定义5.3.2 填充与步长5.3.3 多通道卷积5.4 池化操作5.4.1 单通道池化5.4.2 多通道池化5.5 CNN模型实战:手写数字识别5.5.1 数据准备5.5.2 构建数据读取器5.5.3 LeNet-5网络构建及代码实现5.5.4 模型训练5.5.5 层卷积核与特征图的可视化5.5.6 第二层卷积核与特征图的可视化5.6 本章小结第6章 经典CNN模型介绍6.1 AlexNet模型原理与实现6.1.1 AlexNet网络结构6.1.2 AlexNet创新点6.1.3 案例:AlexNet用于CIFAR10数据集的图片分类6.1.4 AlexNet网络构建及代码实现6.1.5 模型训练6.2 VGG模型原理与实现
展开