neural-networks-and-deep-learning
介绍
一、使用神经网络识别手写数字
感知机
Sigmoid神经元
神经网络的架构
一个简单的手写体数字分类网络
梯度下降学习算法
实现我们的神经网络来识别数字
关于深度学习
二、反向传播的工作原理
热身:一种基于矩阵快速计算神经网络输出的算法
关于成本函数所需的两个假设
Hadamard乘积
反向传播背后的四个基本等式
四个基本等式的证明(选读)
反向传播算法
反向传播的代码实现
是什么让反向传播算法如些之快?
反向传播:概览
三、优化神经网络学习方式
交叉熵成本函数
引入交叉熵成本函数
Softmax
过拟合和正规化
正规化
为什么正则化可以减少过拟合
其他的正则化技术
权重初始化
重新实现手写识别:代码
怎样选择神经网络的超参数
其他技术
四、神经网络可以计算任意函数的视觉证明
两个说明
一个输入和一个输出的通用性
多个输入变量
扩展sigmoid神经元
修复步进函数
结论
五、为什么深度神经网络很难训练?
梯度消失问题
什么导致了梯度消失问题?深度神经网络里不稳定的梯度
在更复杂网络中不稳定的梯度
深度学习的其他阻碍
六、深度学习
介绍卷积网络
卷积神经网络实践
卷积神经网络的代码实现
图像识别的最新进展
深度神经网络的其他形式
关于神经网络的未来
Powered by
GitBook
梯度消失问题
梯度消失问题
results matching "
"
No results matching "
"