您的位置:首页 > 其它

[Ng机器学习公开课2]单变量线性回归

2016-02-03 00:00 239 查看
摘要: 机器学习中的第一个学习内容 线性回归

在线性回归中,要解决的问题时是,根据数据,找到最优的匹配方程,然后给出一个X,我们就提供一个Y。

这一章节的课程就是围绕怎么找到这条最优匹配方程展开,首先我们假设这个方程叫H方程,h=ax+b

那么我们怎么知道哪个a和b最好呢?

这就涉及到Cost Function,就是消费方程,什么意思呢,就是每次我们改变a,b,方程和数据匹配程度都不同,有的好有的差,理想状态下,存在一个状态,就是存在一个最好的匹配度。

这就引来一个问题,匹配度怎么表示呢?

就是通过计算每个匹配方程,输入一个x,然后看匹配方程给出的y和实际数据中的y的距离,在笛卡尔坐标系中就是两点之间的距离,通过输入所有数据的x,就能得到所有匹配方程给出的y和实际数据中y的距离的总和,这个总和就是匹配度,总和越小,匹配度越高。

知道了匹配度之后,我们就要解决第三个问题,什么方法可以帮我们找到a和b使得匹配度最高?

这里就有一个Gradient descent的方法,这个方法能帮我们找到匹配度最高的a和b。这是一种寻找局部最小值的数学方法,因为cost funtion(J),是关于a和b的函数,这个函数存在局部最小值,当我们列出所有的ab的可能性和匹配度,我们就得到一个碗状的三维图,这个方法能保证我们从随意点,通过迭代最后找到最低点。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  机器学习