机器学习之&&Andrew Ng课程复习---Regularization
2014-11-02 18:35
239 查看
课程背景:
训练集样本量小,但特征却比较多的时候,我们很容易产生模型过于复杂的过拟合现象,(过拟合:模型较为复杂很精确的拟合了训练集,却对测试集的数据不能做出有效的预测),为了解决这种现象,我们有以下2种方案:
1.Reduce the Number of Feature(1.Manually select which feature to keep;2.model selection algorithm)(以后的博客会更新)
2.Regularization(1.keep all the feature,but reduce magnitude / values of parameters θj)。
一、Cost Function(Regularization)
上式的意思:我们给我们要优化的对象(代价函数)加上俩个惩罚项,这样要使得代价函数最优,必须θ3 和θ4 约等于0,从而简化了模型的规模,避免了过拟合。
2.Regularization
参数越少,模型越光滑(简单),越不容易过拟合。
我们来看一个例子:
但是我们怎么来确定惩罚哪个参数呢?所以我们对代价函数做以下修改
(我们针对所有参数,让每一个参数尽量小)
λ称为正规化参数,目的就是控制在俩个不同目标中的平衡,第一个目标:是假设更好地拟合训练数据;第二个目标:保持参数值较小。从而保持假设的形式相对简单,来避免过拟合,但是λ过大会造成欠拟合,这时候相当于除去θ0其他都等于0,以我的理解为:正规化就是,代价函数加上参数影响。
下一篇博客,我们可以一起看看正规化在线性回归和LR中的应用~
See You!
训练集样本量小,但特征却比较多的时候,我们很容易产生模型过于复杂的过拟合现象,(过拟合:模型较为复杂很精确的拟合了训练集,却对测试集的数据不能做出有效的预测),为了解决这种现象,我们有以下2种方案:
1.Reduce the Number of Feature(1.Manually select which feature to keep;2.model selection algorithm)(以后的博客会更新)
2.Regularization(1.keep all the feature,but reduce magnitude / values of parameters θj)。
一、Cost Function(Regularization)
上式的意思:我们给我们要优化的对象(代价函数)加上俩个惩罚项,这样要使得代价函数最优,必须θ3 和θ4 约等于0,从而简化了模型的规模,避免了过拟合。
2.Regularization
参数越少,模型越光滑(简单),越不容易过拟合。
我们来看一个例子:
但是我们怎么来确定惩罚哪个参数呢?所以我们对代价函数做以下修改
(我们针对所有参数,让每一个参数尽量小)
λ称为正规化参数,目的就是控制在俩个不同目标中的平衡,第一个目标:是假设更好地拟合训练数据;第二个目标:保持参数值较小。从而保持假设的形式相对简单,来避免过拟合,但是λ过大会造成欠拟合,这时候相当于除去θ0其他都等于0,以我的理解为:正规化就是,代价函数加上参数影响。
下一篇博客,我们可以一起看看正规化在线性回归和LR中的应用~
See You!
相关文章推荐
- (转)机器学习之&&Andrew Ng课程复习---神经网络编程入门
- 机器学习之&&Andrew Ng课程复习--- Advanced optimization(Logistic Regression)
- 机器学习之&&Andrew Ng课程复习--- 怎样选择机器学习方法、系统
- 机器学习之&&Andrew Ng课程复习--- 学习笔记(一、二课)
- 机器学习之&&Andrew Ng课程复习--- 学习笔记(第三课)
- Andrew Ng机器学习课程笔记--week11(图像识别&总结划重点)
- 机器学习之&&Andrew Ng课程复习--- LR之决策边界
- 林轩田之机器学习课程笔记( how can machines learn better之regularization)(32之14)
- 机器学习之&&Andrew Ng课程复习--- Cost Function(Logistic Regression)
- 马普所机器学习课程& CMU701
- 机器学习之&&Andrew Ng课程复习--- 聚类——Clustering
- 机器学习之&&Andrew Ng课程复习--- 神经网络的表层结构1
- 斯坦福大学(Andrew Ng)机器学习课程讲义
- Stanford机器学习网络课程---第三讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization
- 机器学习之&&Andrew Ng课程复习--- 神经网络的表层结构2
- 机器学习之&&Andrew Ng课程复习--- 机器学习系统设计
- 机器学习之&&Andrew Ng课程复习--- 聚类——Clustering
- 台湾大学林轩田机器学习基石课程学习笔记14 -- Regularization
- 斯坦福大学(Andrew Ng)机器学习课程讲义
- 机器学习之&&Andrew Ng课程复习--- 神经网络3