您的位置:首页 > 理论基础 > 计算机网络

神经网络笔记

2015-08-03 11:37 363 查看

神经网络分类的costFunction



与逻辑回归类似, 只是将多分类k个误差加了上去。

要注意的是, 对于θj0\theta_{j0}不用进行正则化,这与逻辑回归的常数项不进行正则化也一样。

backpropagation

1.前向传播



2.反向传播



通过计算最后一层输出的值与真实的误差,可以逐层反向的推导出各个层的误差,其中激活函数的导数为a(1-a)



梯度检验

利用双侧差分对梯度下降的算法进行比较

随机初始化权重

否则会导致权重相同,学习不到应有的特征

训练神经网络的过程

随机初始化权重

通过前向反馈计算每个样本的输出

计算损失函数

计算损失函数的偏导

梯度检查

利用优化算法最小化cost函数
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: