Michael Nielsen的在线教程《Neural Networks and Deep Learning》由Xiaohu Zhu和Freeman Zhang翻译成中文版本,提供了pdf文件和latex源文件,其部分目录如下:
1 使用神经网络识别手写数字
1.1 感知器
1.2 S 型神经元
1.3 神经网络的架构
1.4 一个简单的分类手写数字的网络
1.5 使用梯度下降算法进行学习
1.6 实现我们的网络来分类数字
1.7 迈向深度学习
2 反向传播算法如何工作
2.1 热身:神经网络中使用矩阵快速计算输出的方法
2.2 关于代价函数的两个假设
2.3 Hadamard 乘积,s ⊙ t
2.4 反向传播的四个基本方程
2.5 四个基本方程的证明(可选)
2.6 反向传播算法
2.7 代码
2.8 在哪种层面上,反向传播是快速的算法?
2.9 反向传播:全局观
3 改进神经网络的学习方法
3.1 交叉熵代价函数
3.1.1 引入交叉熵代价函数
3.1.2 使用交叉熵来对 MNIST 数字进行分类
3.1.3 交叉熵的含义?源自哪里?
3.1.4 柔性最大值
3.2 过度拟合和规范化
3.2.1 规范化
3.2.2 为何规范化可以帮助减轻过度拟合
3.2.3 规范化的其他技术
3.3 权重初始化
3.4 再看手写识别问题:代码
3.5 如何选择神经网络的超参数
3.6 其它技术
3.6.1 随机梯度下降的变化形式
3.6.2 人工神经元的其他模型
3.6.3 有关神经网络的故事
4 神经网络可以计算任何函数的可视化证明
4.1 两个预先声明
4.2 一个输入和一个输出的普遍性
4.3 多个输入变量
4.4 S 型神经元的延伸
4.5 修补阶跃函数
4.6 结论
5 深度神经网络为何很难训练
5.1 消失的梯度问题
5.2 什么导致了消失的梯度问题?深度神经网络中的梯度不稳定性
5.3 在更加复杂网络中的不稳定梯度
5.4 其它深度学习的障碍
6 深度学习
6.1 介绍卷积网络
6.2 卷积神经网络在实际中的应用
6.3 卷积网络的代码
6.4 图像识别领域中的近期进展
6.5 其他的深度学习模型
6.6 神经网络的未来
英文版链接:
http://neuralnetworksanddeeplearning.com/
中文版链接:
https://github.com/zhanggyb/nndl/releases
原文链接:
http://weibo.com/3171152812/DuK6SiK6K?type=comment
联系客服