[置顶] 概率统计与机器学习:机器学习的各类型最优化方法
2017-09-14 17:16
507 查看
无约束优化方法(1):一阶梯度型方法
前置知识
(1)凸集定义:对任意的
和
,总有
图示:
(2)凸函数
定义:对于任意
,应有
, 其中
图示:
(3)凸优化
一般形式:
什么是凸优化问题?
答:目标函数为凸函数,且可行域为凸集。
(4)机器学习中的凸问题与非凸问题
凸问题:
线性最小二乘
SVM
逻辑斯蒂回归
核方法
非凸问题:
主成分分析
神经网络
K均值聚类
高斯混合模型
(A) 梯度下降法
定义:解释:负梯度方向是下降最快的方向
推导:将梯度变化进行二阶泰勒展开
研究一阶梯度算法:要使
,则
为下降方向,此时要使不等式满足,则
此时当
, 即搜索方向直接取目标函数f在点x的负梯度方向,此时具有最大的下降步伐或速率。
一阶梯度下降算法相关问题
梯度下降法可不可能解决非凸问题?
答:可能,如果是半边凸半边非凸,则有可能得到最优解。若好几个凸函数并在一起,则有可能陷入局部最优解。
凸优化问题中梯度一定收敛吗?
答:不一定,二次函数中如果梯度为-1步长过大,则可能陷入死循环来回跳动无法下降。
相关文章推荐
- 机器学习第二课:概率与统计的部分说明
- 机器学习中导数最优化方法(基础篇)
- 机器学习中的概率模型和概率密度估计方法及VAE生成式模型详解之五(第3章 之 EM算法)
- 机器学习中的概率模型和概率密度估计方法及VAE生成式模型详解之七(第4章 之 梯度估算)
- 干货来袭:漫谈概率统计方法与因果关系
- 【机器学习系列之四】概率统计学习基础
- 机器学习之概率与统计(三)- 极大似然估计
- [(机器学习)概率统计]极大似然估计MLE原理+python实现
- 机器学习中的概率模型和概率密度估计方法及VAE生成式模型详解之三(第1章)
- 机器学习中的概率模型和概率密度估计方法及VAE生成式模型详解之八(第4章 之 AEVB和VAE)
- 机器学习、大数据、深度学习、数据挖掘、统计、决策和风险分析、概率和模糊逻辑的常见问题解答
- 机器学习中的概率模型和概率密度估计方法及VAE生成式模型详解之一(内容简介)
- 机器学习中的概率模型和概率密度估计方法及VAE生成式模型详解之九(第5章 总结)
- 机器学习中的贝叶斯方法---先验概率、似然函数、后验概率的理解及如何使用贝叶斯进行模型预测(1)
- 最优化方法与机器学习工具集
- 机器学习中的最优化方法进阶
- 机器学习中的概率模型和概率密度估计方法及VAE生成式模型详解之二(作者简介)
- 机器学习中导数最优化方法(基础篇)
- 机器学习中导数最优化方法(基础篇)
- R语言︱常用统计方法包+机器学习包(名称、简介)