您的位置:首页 > 其它

FPGA机器学习之stanford机器学习第三堂2

2014-06-25 00:58 162 查看
我已经写过一遍了,为了我的分享事业,我在写一次吧。

上一次我写到了,

这里加号后面的那个就是错误率。为什么会引入这个,上一篇,我有写清楚。


这里,我们假定它符合高斯分布。为什么是高斯分布,上一篇也写了。


这里引入似然率的概念L(thera)。

进一步往下写。

最后代入。

我们要选择最大似然率嘛。最大似然就是说,我们要计算出的数,最大程度的出现。

为了方便引入一个新的概念。

小L,就是log似然率。一步一步向下计算。这个式子,可以算出来,不过好像有点复杂是吧。我没算,默认正确吧。


这一小块单独拿出来。因为它就是J(thera)。要让L(thera)最大,就要它最小。

最后你会发现式子里面没有σ2,所以和它无关。

Classification and logistic regression

这里是逻辑回归。其实就是针对只有0,1 两种情况输出的情况。

其实这种情况很多,比如说,判断男的还是女的,就两种情况。比如真的,假的。两种情况。


这里引入一个新的函数。

函数的二维图形表示。这个函数在我前面写的神经网络里面也设计到了。

我们现在来假设两个概率函数。

这里比较好理解了。y只有2个取值。0和1.所以只有2个概率值。所以下一个就是1-h(x)。

讲两个概率函数写在一起方便下面计算


m个样本进行训练

这个代入后的结果。


还是求一个log似然率。


这个还有印象,梯度下降法。

这个过程我大概看了一下,还是可以理解的。具体的我没自己看,默认求出结果正确就好了。

最后求得这个式子。

这个式子和之前的式子是一样的。但是这里的h(x)是不一样的。

可是这里用的是加号,所以应该叫梯度上升算法吧。

perceptron learning algorithm

叫感知器学习算法。其实情况大同小异了。

还是一个h(x)函数定义不同。




最后求的结果还是一样的。


梯度下降法逼近。


我能力有限,但是我努力分享我的技术,一起学习,一起进步,刚接触,有错误望各位指点。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: