机器学习入门笔记(四)----逻辑回归
2017-08-31 23:13
483 查看
1.逻辑回归用于解决分类问题
简单举例 : 判定邮件是否为垃圾邮件;肿瘤是良性的还是恶性的.
2.假设函数:
3.预测结果h(x)值的含义为 : x的分类结果属于'1'的概率, 概率表示:
4.代价函数:
简化形式:
5. 梯度下降法:
6. 向量化:
7. 多元分类问题:1对多法:
上面讨论的都是y只有0 1两种结果的情况,当y取值为更多元时,一个解法如下:
假设y取值为1 2 ... k, 将训练集中y=i 与 y != i (i = 1 2 ... k),分为两种分类,运用上面方法得到k个假设函数h。每个函数的值表示属于分类i的概率。
预测时,分别得到k个结果,取最大值的分类。
8. 优化算法:
共轭梯度法
BFGS
L-BFGS
Octive中,最优函数fminunc(), 使用方法:
optimeset构建偏好设置。第一个参数,打开自定义损失函数。第二个参数,设定最大迭代次数。
fminunc,第一个参数是自定义的损失函数,第二个是初始theta向量,第三个是options。
返回值第一个theta,第二个是损失函数的结果,第三个是是否已收敛。
其中,自定义的损失函数如下:
返回值:第一个,损失函数结果。第二个,每一步的梯度值向量。(损失函数对每个theta的偏导)
简单举例 : 判定邮件是否为垃圾邮件;肿瘤是良性的还是恶性的.
2.假设函数:
3.预测结果h(x)值的含义为 : x的分类结果属于'1'的概率, 概率表示:
4.代价函数:
简化形式:
5. 梯度下降法:
6. 向量化:
7. 多元分类问题:1对多法:
上面讨论的都是y只有0 1两种结果的情况,当y取值为更多元时,一个解法如下:
假设y取值为1 2 ... k, 将训练集中y=i 与 y != i (i = 1 2 ... k),分为两种分类,运用上面方法得到k个假设函数h。每个函数的值表示属于分类i的概率。
预测时,分别得到k个结果,取最大值的分类。
8. 优化算法:
共轭梯度法
BFGS
L-BFGS
Octive中,最优函数fminunc(), 使用方法:
optimeset构建偏好设置。第一个参数,打开自定义损失函数。第二个参数,设定最大迭代次数。
fminunc,第一个参数是自定义的损失函数,第二个是初始theta向量,第三个是options。
返回值第一个theta,第二个是损失函数的结果,第三个是是否已收敛。
其中,自定义的损失函数如下:
返回值:第一个,损失函数结果。第二个,每一步的梯度值向量。(损失函数对每个theta的偏导)
相关文章推荐
- 【机器学习入门】Andrew NG《Machine Learning》课程笔记之四:分类、逻辑回归和过拟合
- [机器学习入门] 李宏毅机器学习笔记-6 (Classification: Logistic Regression;逻辑回归)
- 机器学习入门学习笔记:(2.3)对数几率回归推导
- 斯坦福机器学习公开课笔记(三)--逻辑回归
- 机器学习笔记(7)逻辑回归
- 机器学习笔记(六) 逻辑回归
- 机器学习入门系列三(关键词:逻辑回归,正则化)
- [机器学习笔记] 支持向量机SVM 和逻辑回归LR的异同
- Andrew NG机器学习课程笔记系列之——机器学习之逻辑回归(Logistic Regression)
- Python机器学习与实战笔记之逻辑斯蒂回归Logistic Regression, LR
- 机器学习入门学习笔记:(2.1)线性回归理论推导
- 机器学习笔记三 - 局部加权回归、最小二乘的概率解释、逻辑斯蒂回归、感知器算法
- 机器学习笔记(3):多类逻辑回归
- 机器学习入门(13)--逻辑回归(1)
- 干货|机器学习零基础?不要怕,吴恩达课程笔记第三周!逻辑回归与正则
- 【机器学习笔记】逻辑回归
- 机器学习笔记之逻辑回归算法
- 机器学习笔记-6.5逻辑回归的代价函数及其求导
- 机器学习笔记(4):多类逻辑回归-使用gluton
- <机器学习笔记-04 ><scikit-learn 04>逻辑回归