# 机器学习笔记2——参数学习、非参数学习、局部加权线性回归、线性回归的概率解释、logistics回归
2017-02-26 16:11
477 查看
参数学习:有固定数目的参数,模型学习之后会有一个永久的参数,这个参数在后面的预测中可以直接使用,不需要再需要数据
非参数学习:参数数目会随着训练数据规模线性增长。
局部加权线性回归,使用局部的数据进行回归
假设要在第i个样本附近回归,x(i)
找到θ,使得12∑mi=1w(i)(y(i)−θTx(i))2
其中w(i)=e−(x(i)−x)22
这意味着,当x接近于x(i)时,w(i)接近于1,反之,当x远离于x(i)时,w(i)接近于0
线性回归的概率解释
样本:(x(i),y(i)),第i个样本,总共m个样本
hθ(x(i))表示第i个样本的预测值
则y(i)=θTx(i)+ε(i)
假设ε(i) N(0,σ2),且符合独立同分布 iid.
P(ε(i))=12π√σe−ε(i)22σ2
所以, P(y(i)|x(i);θ)=12π√σe−y(i)−θTx(i)22σ2 N(θTx(i),σ2)
;表示频率学派观点,θ不是随机变量,读作:以θ为参数的概率…
,表示贝叶斯学派观点,θ是随机变量
似然函数L(θ)=P(Y|X;θ)=Πmi=1P(y(i)|x(i);θ)
l(θ)=logL(θ)
最大似然:选取θ使得L(θ)最大,即l(θ)最大
l(θ)=mlog12π√σ+∑mi=1−y(i)−θTx(i)22σ2
y(i)−θTx(i)22σ2=J(θ)
logistic 回归:
分类算法
假设y∈{0,1},我们选取回归的函数hθ(x)∈[0,1]
选择hθ(x)=g(θTx)=11+e−θTx
g(z)=11+e−z 叫做sigmoid函数或者 logistics函数
P(y=1|x;θ)=hθ(x)
P(y=0|x;θ)=1−hθ(x)
所以P(y|x;θ)=hθ(x)y(1−hθ(x))1−y
似然函数L(θ)=P(y|x;θ)=ΠP(y(i)|x(i);θ)=Πhθ(x(i))y(i)(1−hθ(x(i)))1−y(i)
l(θ)=logL(θ)
梯度上升法:θ=θ+α∂∂θl(θ)
非参数学习:参数数目会随着训练数据规模线性增长。
局部加权线性回归,使用局部的数据进行回归
假设要在第i个样本附近回归,x(i)
找到θ,使得12∑mi=1w(i)(y(i)−θTx(i))2
其中w(i)=e−(x(i)−x)22
这意味着,当x接近于x(i)时,w(i)接近于1,反之,当x远离于x(i)时,w(i)接近于0
线性回归的概率解释
样本:(x(i),y(i)),第i个样本,总共m个样本
hθ(x(i))表示第i个样本的预测值
则y(i)=θTx(i)+ε(i)
假设ε(i) N(0,σ2),且符合独立同分布 iid.
P(ε(i))=12π√σe−ε(i)22σ2
所以, P(y(i)|x(i);θ)=12π√σe−y(i)−θTx(i)22σ2 N(θTx(i),σ2)
;表示频率学派观点,θ不是随机变量,读作:以θ为参数的概率…
,表示贝叶斯学派观点,θ是随机变量
似然函数L(θ)=P(Y|X;θ)=Πmi=1P(y(i)|x(i);θ)
l(θ)=logL(θ)
最大似然:选取θ使得L(θ)最大,即l(θ)最大
l(θ)=mlog12π√σ+∑mi=1−y(i)−θTx(i)22σ2
y(i)−θTx(i)22σ2=J(θ)
logistic 回归:
分类算法
假设y∈{0,1},我们选取回归的函数hθ(x)∈[0,1]
选择hθ(x)=g(θTx)=11+e−θTx
g(z)=11+e−z 叫做sigmoid函数或者 logistics函数
P(y=1|x;θ)=hθ(x)
P(y=0|x;θ)=1−hθ(x)
所以P(y|x;θ)=hθ(x)y(1−hθ(x))1−y
似然函数L(θ)=P(y|x;θ)=ΠP(y(i)|x(i);θ)=Πhθ(x(i))y(i)(1−hθ(x(i)))1−y(i)
l(θ)=logL(θ)
梯度上升法:θ=θ+α∂∂θl(θ)
相关文章推荐
- 机器学习笔记三 - 局部加权回归、最小二乘的概率解释、逻辑斯蒂回归、感知器算法
- 机器学习第二篇(stanford大学公开课学习笔记) —局部加权回归
- 机器学习-学习笔记3.1-局部加权回归
- 机器学习-学习笔记3.1-局部加权回归
- 机器学习-学习笔记3.1-局部加权回归
- [笔记]概率解释·局部加权回归·Logistic回归
- Stanford大学机器学习公开课(三):局部加权回归、最小二乘的概率解释、逻辑回归、感知器算法
- (斯坦福机器学习课程笔记)局部加权线性回归练习
- 机器学习(3)之最小二乘法的概率解释与局部加权回归
- CS229学习笔记之概率解释与局部加权线性回归
- 第3节-局部加权回归、概率解释和罗蒂斯特回归
- 【机器学习】局部加权线性回归
- 局部加权回归、最小二乘的概率解释、逻辑斯蒂回归、感知器算法——斯坦福ML公开课笔记3
- 斯坦福机器学习公开课学习笔记(3)—拟合问题以及局部权重回归、逻辑回归
- 非参数学习算法之局部加权回归
- [置顶] 局部加权回归、最小二乘的概率解释、逻辑斯蒂回归、感知器算法——斯坦福ML公开课笔记3
- 机器学习-学习笔记3.1-局部加权回归
- 【机器学习】局部加权线性回归
- [置顶] 吴恩达机器学习笔记——指数分布族&广义线性模型&逻辑回归概率模型推导
- 机器学习实战线性回归局部加权线性回归笔记