机器学习系列笔记(四)
2017-11-02 14:35
155 查看
学习的可行性
学习是不可能的?
可能拯救
连接学习
连接到真实学习
有多种情况解的问题.通过学习后的g怎么解释都可以, 比如说6/2(2+1)=9?1?这样的问题
问一个有很多红色和绿色的弹珠,想知道红色弹珠的比例有多少
sample 拿10个. 其中有多少red的
那么有引伸出霍夫丁不等式 (hoeffding’s inequality)
P[|v-u|>E]≤2exp(-2E²N)
u是总共red占全部的比例 v是sample中red占的比例 N是sample的个数 E就是容忍度
意思就是根据这个不等式可以知道 抽样越大,越接近实际值
那么当u和v一模一样的时候就是最好的情况
probably approximately correct –>PAC (大概差不多是对的,原谅我垃圾的英语)
真正的学习是要有选择的
给不同的资料选不同的线
要确认h好不好
E in 和 Eout 差得很远–>不好的data
好的data是可以让演算法h自由自在的做选择 –>当出现每个都是对的,那么就强迫演算法说这个是对的了.
Ein 是手上的资料的概率, Eout是外面资料的概率
学习是不可能的?
可能拯救
连接学习
连接到真实学习
有多种情况解的问题.通过学习后的g怎么解释都可以, 比如说6/2(2+1)=9?1?这样的问题
问一个有很多红色和绿色的弹珠,想知道红色弹珠的比例有多少
sample 拿10个. 其中有多少red的
那么有引伸出霍夫丁不等式 (hoeffding’s inequality)
P[|v-u|>E]≤2exp(-2E²N)
u是总共red占全部的比例 v是sample中red占的比例 N是sample的个数 E就是容忍度
意思就是根据这个不等式可以知道 抽样越大,越接近实际值
那么当u和v一模一样的时候就是最好的情况
probably approximately correct –>PAC (大概差不多是对的,原谅我垃圾的英语)
真正的学习是要有选择的
给不同的资料选不同的线
要确认h好不好
E in 和 Eout 差得很远–>不好的data
好的data是可以让演算法h自由自在的做选择 –>当出现每个都是对的,那么就强迫演算法说这个是对的了.
Ein 是手上的资料的概率, Eout是外面资料的概率
相关文章推荐
- Andrew NG机器学习课程笔记系列之——机器学习之逻辑回归(Logistic Regression)
- 机器学习系列笔记1:《统计学习》李航博士 第一章 统计学习方法概论
- 机器学习系列笔记(七)
- Andrew NG机器学习课程笔记系列之——机器学习之正则化(Regularization)
- Andrew NG机器学习课程笔记系列之——机器学习之神经网络模型-上(Neural Networks: Representation)
- 机器学习系列笔记(一)
- 机器学习系列笔记(五)
- Andrew NG机器学习课程笔记系列之——机器学习之神经网络模型-下(Neural Networks: Representation)
- 机器学习系列笔记(三)
- 机器学习系列笔记(二)
- 机器学习笔记整理系列之(一)
- Andrew NG机器学习课程笔记系列之——机器学习之逻辑回归(Logistic Regression)
- 数据挖掘系列笔记(2):机器学习的应用实例
- 斯坦福机器学习: 网易公开课系列笔记(四)——牛顿法、广义线性模型
- 斯坦福机器学习: 网易公开课系列笔记(五)——高斯判别分析、朴素贝叶斯
- Weka中数据挖掘与机器学习系列之为什么要写Weka这一系列学习笔记?(一)
- 斯坦福机器学习: 网易公开课系列笔记(二)——线性回归、梯度下降算法和最小二乘公式
- 机器学习系列笔记(六)
- 机器学习笔记整理系列之(二)
- Andrew NG机器学习课程笔记系列之——机器学习之单变量线性回归(Linear Regression with One Variable)