各种机器学习方法概念
2015-05-30 20:02
162 查看
博客转自:http://blog.csdn.net/wds555/article/details/45560757
强化学习(Reinforcement Learning):
所谓强化学习就是智能系统从环境到行为映射的学习,以使奖励信号(强化信号)函数值最大,强化学习不同于连接主义学习中的监督学习,强化学习中由环境提供的强化信号是对产生动作的好坏作一种评价(通常为标量信号),而不是告诉强化学习系统RLS(reinforcement
learning system)如何去产生正确的动作。由于外部环境提供的信息很少,RLS必须靠自身的经历进行学习。通过这种方式,RLS在行动-评价的环境中获得知识,改进行动方案以适应环境。
增量学习(Incremental Learning):
学习新知识,不忘旧知识。
1) 可以从新数据中学习新知识;
2) 以前已经处理过的数据不需要重复处理;
3) 每次只有一个训练观测样本被看到和学习;
4) 学习新知识的同时能保存以前学习到的大部分知识;
5) —旦学习完成后训练观测样本被丢弃;
6) 学习系统没有关于整个训练样本的先验知识
在线学习(Online Learning):
数据一个一个的到来,一个一个的学习。
迁移学习(Transfor Learning):
迁移学习可以从现有的数据迁移知识,用来帮助将来的学习。迁移学习(Transfer Learning)的目标是将从一个环境中学到的知识用来帮助新环境中的学习任务。因此,迁移学习不会像传统机器学习那样作同分布假设。
批量学习(Batch Learning):
数据一批一批的到来,一批一批的学习。
强化学习(Reinforcement Learning):
所谓强化学习就是智能系统从环境到行为映射的学习,以使奖励信号(强化信号)函数值最大,强化学习不同于连接主义学习中的监督学习,强化学习中由环境提供的强化信号是对产生动作的好坏作一种评价(通常为标量信号),而不是告诉强化学习系统RLS(reinforcement
learning system)如何去产生正确的动作。由于外部环境提供的信息很少,RLS必须靠自身的经历进行学习。通过这种方式,RLS在行动-评价的环境中获得知识,改进行动方案以适应环境。
增量学习(Incremental Learning):
学习新知识,不忘旧知识。
1) 可以从新数据中学习新知识;
2) 以前已经处理过的数据不需要重复处理;
3) 每次只有一个训练观测样本被看到和学习;
4) 学习新知识的同时能保存以前学习到的大部分知识;
5) —旦学习完成后训练观测样本被丢弃;
6) 学习系统没有关于整个训练样本的先验知识
在线学习(Online Learning):
数据一个一个的到来,一个一个的学习。
迁移学习(Transfor Learning):
迁移学习可以从现有的数据迁移知识,用来帮助将来的学习。迁移学习(Transfer Learning)的目标是将从一个环境中学到的知识用来帮助新环境中的学习任务。因此,迁移学习不会像传统机器学习那样作同分布假设。
批量学习(Batch Learning):
数据一批一批的到来,一批一批的学习。
相关文章推荐
- Python2.7-异常和工具
- python学习笔记第一课_Phoenix-晶
- android ScrollView滚动距离和判断滚动停止状态
- xmu 1074: 安全网络 ver.1(MST模型)
- 客运综合管理系统项目—售票管理(售票)
- 实现医生工作站中处方录入功能的代码(六)
- 张维为 - 中国震撼:一个”文明型国家“的崛起(2015年5月30日)
- 文章标题
- 用ZipInputStream和ZipOutputStream实现文件及文件夹的压缩解压
- leetcode ZigZag Conversion
- 部分A+B
- 导数练习7
- Android 开发工具类 31_WebService 获取手机号码归属地
- Android 监听ScrollView的滑动
- 菜鸟学Android笔记(九):Schema之名称空间
- 【MyEclipse使用教程】—如何设置jsp页面为默认utf-8编码
- Infragist ics Ult imate 2015 Vol.1 - Product Keys
- BZOJ 1054: [HAOI2008]移动玩具( BFS )
- OpenCV中Mat数据的访问报错
- Java多态性 父类引用指向子类对象