您的位置:首页 > 编程语言 > Go语言

Google---机器学习速成课程(四)-泛化Generalization

2018-03-16 10:08 309 查看
泛化(Generalization)是指模型很好地拟合以前未见过的新数据(从用于创建该模型的同一分布中抽取)的能力。
学习目标
直观理解过拟合。
确定某个模型是否出色。
将数据集划分为训练集和测试集。
过拟合现象,虽然损失函数值很低,但是泛化能力很差,所以模型在预测新的数据会表现的很糟糕
奥卡姆的威廉是 14 世纪一位崇尚简单的修士和哲学家。他认为科学家应该优先采用更简单(而非更复杂)的公式或理论。奥卡姆剃刀定律在机器学习方面的运用如下:

机器学习模型越简单,良好的实证结果就越有可能不仅仅基于样本的特性。

现今,我们已将奥卡姆剃刀定律正式应用于统计学习理论计算学习理论领域。这些领域已经形成了泛化边界,即统计化描述模型根据以下因素泛化到新数据的能力:
模型的复杂程度
模型在处理训练数据方面的表现
虽然理论分析在理想化假设下可提供正式保证,但在实践中却很难应用。ML速成课程则侧重于实证评估,以评判模型泛化到新数据的能力。ML模型旨在根据以前未见过的新数据做出良好预测。但如果要根据数据集构建模型,如何获得以前未见过的数据呢?一种方法是将您的数据集分成两个子集:训练集(用于训练模型的子集)和测试集(用于测试模型的子集)。一般来说,在测试集上表现是否良好是衡量能否在新数据上表现良好的有用指标,前提是:测试集足够大。
您不会反复使用相同的测试集来作假。

机器学习细则

以下三项基本假设阐明了泛化:我们从分布中随机抽取独立同分布 (i.i.d) 的样本。换言之,样本之间不会互相影响。(另一种解释:i.i.d. 是表示变量随机性的一种方式)。
分布是平稳的;即分布在数据集内不会发生变化。
我们从同一分布的数据划分中抽取样本。
在实践中,我们有时会违背这些假设。例如:想象有一个选择要展示的广告的模型。如果该模型在某种程度上根据用户以前看过的广告选择广告,则会违背 i.i.d. 假设。
想象有一个包含一年零售信息的数据集。用户的购买行为会出现季节性变化,这会违反平稳性。
如果违背了上述三项基本假设中的任何一项,那么我们就必须密切注意指标。总结如果某个模型尝试紧密拟合训练数据,但却不能很好地泛化到新数据,就会发生过拟合。
如果不符合监督式机器学习的关键假设,那么我们将失去对新数据进行预测这项能力的重要理论保证。
-------------------------------------------------------
以上整理转载在谷歌出品的机器学习速成课程点击打开链接 侵删!
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: