Stanford机器学习系列之一:机器学习基本概念
2012-12-08 23:00
246 查看
1. 机器学习定义
机器学习(Arthur Samuel,1959):在确定编程之外给予计算机学习能力的研究领域。机器学习(Tom Mitchell,1998):如果计算机程序对于任务T的性能度量P通过经验E得到了提高,则认为此程序对E进行了学习。
2. 机器学习四个主要内容
-监督学习:包括回归(连续性问题:预测值或目标变量是连续的)、分类(离散性问题:预测值或目标变量是离散值)。需要训练集,训练集给出自变量和因变量(即标签),通过训练集构造模型;之后,对于新的自变量,采用学习到的模型预测因变量的值。-学习理论(Learning Theory):证明机器学习算法的有效性。
-无监督学习(UnSupervised Learning):无训练集。将所有的数据根据某些属性进行聚类,之后对聚类结果进行分析,获取知识。
-强化学习(Reinforcement Learning):关键是引入了回报函数(reward function)的概念。通过回报函数不断修正学习算法,以使算法更有效。
参考资料:
[1] Andrew Ng. Stanford CS229. Machine Learning. Stanford University
相关文章推荐
- 机器学习-斯坦福课程系列1【基本概念】
- Weka中数据挖掘与机器学习系列之基本概念(三)
- Stanford机器学习系列之一:机器学习基本概念
- 读《高效ML:理论,算法及实践》:(1) 机器学习基本概念
- 十张图解释机器学习的基本概念
- Java多线程系列--“基础篇”01之 基本概念
- Windows内核原理系列01 - 基本概念
- 机器学习基本概念
- 机器学习01之基本概念及感知器
- SOA系列之基本概念
- [置顶] 【ML--03】 第三课 机器学习基本概念
- 机器学习--基本概念
- 信号完整性分析系列——1基本概念
- 2基本概念--python深度机器学习
- 【经典转载】Linux进程学习系列之一 基本概念
- 机器学习笔记--基本概念
- 机器学习第一张基本概念理解
- 《JavaScript高级程序设计》笔记系列2-- 基本概念1