您的位置:首页 > 其它

FPGA机器学习之龙星计划机器学习第三堂

2014-07-19 18:22 190 查看


刚开始讲解的是什么是有监督算法。我目前还是,就算我懂了,我也尽量写出来。刚开始的这些视频都是普及化教育

并不是针对每个点,某一个算法做详细的讨论。所以就尽量描述出来。后期针对具体的应用,会想我的博文里面的那个

BP神经网络那样,做很多的分析,应用,测试,具体算法的程序编写等。

X输入,Y是预测值。我们要做的是努力让f(x)接近预测值。

Sn是训练用的数据。

最后是通过不断的训练找到w最小的情况(误差最小)。



这里大概说的就是,train训练集合。test是测试集合。



过拟合,

这个圈是模型复杂度。如果是复杂模型,训练集的时候很好。测试集的情况就和训练集的情况差的更多。



上面那个是过拟合模型,如果X在训练集里面出现,那Y输出就小。

过拟合的现象中,一定是预测函数过于复杂了。

特征,训练集都没有错。然后测试集合就错的特别多。



欠拟合,f(x)=1,就是欠拟合情况的数学表达。

特征就是训练集错误多,训练集和测试的错误差距小,测试集错误也大。



这个就是适当的了。



总结了一些情况,什么情况下容易过拟合,什么情况容易欠拟合。



当o(d/n)中d比较小的时候,还可以接受。可是d如果大了就不可以接受了。



这个是他的解决方案。g(w)就是上面的那个O函数。

这里g(w)被限定住了。如何去设定这个参数很复杂。这里只是一个想法。



红色的形式用的比较多。



为什么引入w,做的一些解释。但是没看懂。



常用的是p就是1,2。p>1是凸函数。



红色的稳定而且可逆。



这个是稳定性上的例子。不过我还没看懂。圈里面的就是稳定性。不过为什么是这样,我不太明白。



这一堂的总结。


我能力有限,但是我努力听懂,然后把我的理解分享出来。希望朋友们也可以分享自己的知识一起学习。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: