第1章 背景知识
1.1 什么是智能
1.2 大脑与神经元
1.3 关于人工智能/机器学习/神经网络/深度学习
第2章 函数
2.1 函数的极限
2.2 函数的连续性
2.3 导数
2.4 凹凸性与拐点
2.5 极值与驻点
2.6 曲率
2.7 二元函数
第3章 梯度
3.1 矢量的概念
3.2 矢量的运算
3.3 矢量与坐标
3.4 方向角与方向余弦
3.5 矢量的数量积
3.6 函数的梯度
第4章 矩阵
4.1 矩阵的概念及运算
4.2 矩阵的初等变换
4.3 矢量的矩阵表示法
4.4 矩阵的秩
4.5 矩阵的逆
4.6 从标量函数到矩阵函数
第5章 MCP模型及感知器(Perceptron)
5.1 MCP模型
5.2 模式识别初探
5.3 感知器
5.4 凸集与单层感知器
5.5 XOR问题
第6章 多层感知器(MLP)
6.1 纵向串接
6.2 MLP的基本架构
6.3 BP算法
6.4 梯度下降法
6.5 极小值问题
6.6 学习率
6.7 批量训练
6.8 欠拟合与过拟合
6.9 容量
6.10 拓扑
6.11 收敛曲线
6.12 训练样本集
6.13 权值连接方式
第7章 径向基函数神经网络(RBFNN)
7.1 插值的概念
7.2 RBF
7.3 从精确插值到RBFNN
7.4 Cover定理
7.5 空间分割问题
7.6 训练策略
第8章 卷积神经网络(CNN)
8.1 卷积运算与相关运算
8.2 卷积核与特征映射图
8.3 CNN的一般结构
8.4 三种思想
8.5 边界策略
8.6 池化
8.7 CNN网络实例
8.8 Hubel-Wiesel实验
第9章 循环神经网络(RNN)
9.1 N-Gram模型
9.2 RNN示例
9.3 单向RNN
9.4 BPTT算法
9.5 填空问题
9.6 双向RNN
9.7 梯度爆炸与梯度消失
9.8 LSTM
结束语
展开