用最通俗的例子讲为什么神经网络可以进行预测
这个问题,先可以理解为什么神经网络可以实现预测。
如上图所示,我们将我们平常看到的神经网络转90度来看。最下层(输入层)信息逐渐到上层(输出层)时候可以得到一个预测结果。其中起到关键作用的就是中间的隐藏层。那么可以理解为隐藏层有什么作用导致了整个神经网络可以进行预测。
我们耳熟能详的解释是,隐藏层具有提取特征的能力。那么如何理解这个提取特征的能力?我们以一个公司选举为例,我们要选择一个人当作我们的团队的头头。A1、A2、A3、A4、A5表示5个小职员,B1、B2、B3是中层干部,C_pred表示我们要选择的头头。那么这个选举流程是每个中层干部(B1-B3)都要去分别听5个小职员(A1-A5)的建议,那么做为上级,在听取下级的建议时候,肯定是有倾向的,肯定会更多考虑某一个值得信任的下级的建议,因此可以看出来,中层干部针对不同的小员工的信息具有不同的建议分辨能力,就可以理解为上一层对下一层信息有选择性质的提取,那么中层干部(B1-B3)将提取的信息整合,选出一个头头C_pred。但是经过选举出来的这个头头,必须通过董事会的建议,而董事会已经有了合适的人选C_true,然后董事长告诉大家,C_true是我当年的发小,于是乎中层干部(B1-B3)听到这个信息马上去讨论改选择谁当头头,接着,中层干部(B1-B3)马上去发动手底下的小弟(A1-A5)重新讨论选举头头人问题,于是乎信息又一次次过滤,一次次汇报,最终董事长觉得这个C_pred和自己信息预测的C_true差不多,就通过的他心里的那个坎。
将人类的活动化为数学问题,那么我们可以认为,中层干部(B1-B3)针对不同小职员(A1-A5)的建议吸收程度,视为特征提取,将董事长心里预期C_true和中层干部(B1-B3)的建议后选择人C_pred的落差视为loss,然后将董事长的指示一层层传达上报的行为称为反向传播(BP),最终C_pred复合董事长心里预期,通过他心里的坎可以视为,结果大于score(置信度).
- 点赞
- 收藏
- 分享
- 文章举报
- 当深度神经网络预测结果不好的时候,可以做的调节有哪些?
- 采用神经网络进行城市中长期负荷预测的一种信息系统
- PNN神经网络预测类别的例子
- Keras 如何利用训练好的神经网络进行预测
- 利用MATLAB 2016a进行BP神经网络的预测(含有神经网络工具箱)
- 深度学习系列教程 - 1.2.2 神经网络是如何进行预测的?
- 如何利用训练好的神经网络进行预测
- 利用Keras搭建神经网络进行回归预测
- DL之DNN:自定义2层神经网络TwoLayerNet模型(计算梯度两种方法)算法对MNIST数据集进行训练、预测
- 利用MATLAB 2016a进行BP神经网络的预测(含有神经网络工具箱)
- 神经网络U-net性能分析,为什么u-net性能可以这么好
- 使用神经网络对黄金期货交割价格进行预测-3 MATLAB
- Pytorch 搭建分类回归神经网络并用GPU进行加速的例子
- 人工智能教程 - 1.2.2 神经网络是如何进行预测的?
- 如何利用训练好的神经网络进行预测
- 编写敏感词过滤程序 说明:在网络程序中,如聊天室、聊天软件等,经常需要对一些用户所提交的聊天内容中的敏感性词语进行过滤。 如“性”、“色情”、“爆炸”、“恐怖”、“枪”、“军火”等,这些都不可以在网
- 没有任何关闭socket的日志,客户端和服务端进程都在, 网络连接完好, 为什么进行某操作后好好的tcp连接莫名其妙地断了呢?
- HighSpeedLogic专题:基于广义回归神经网络货运量预测
- 基于神经网络的水下机器人运动预测控制方法-读后总结
- 求各位深度学习的大佬看看下面代码,为什么我的神经网络的测试集学习率总是在0.1左右?小白