您的位置:首页 > 其它

图像处理(5)

2019-04-20 23:33 20 查看

大二下的时候,自己用jupyternotebook将学过的所有ML和DL还有其他建模方法的知识放在jupyternotebook里,没想到,最后电脑一刷,都忘记保存了,那段记忆,现在回想是真的美好,沉浸在对未知知识的渴望,用代码实现的快感,仔细想想,这种各种算法和能解决的问题的收集那时候算是成了一种癖好了把。没保留真的是太可惜了。

模式识别中的线性判别函数及其训练方法(误差校正)

详情请见

  1. 线性判别分析(Linear Discriminant Analysis,LDA)
  2. 为什么可逆矩阵又叫“非奇异矩阵(non-singular matrix)”?
  3. python sklearn中的LDA官方文档
  4. C++实现 LDA
  5. 装逼犯必看,中科大模式识别学习笔记
  6. 装逼犯必看2,常见的模式识别算法

My explain: 就是在样本的n维空间内找到一个n-1维的超平面(投影矩阵)使得分类的类间距最大类内距最小,于是可以用fisher线性判据将最优化问题变成求广义特征方程的d个最大特征值对应的特征向量组成的投影矩阵。

Application:LDA可以作有监督的数据降维。

Python coding Demo:

[code]import numpy as np
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis
X = np.array([[-1, -1], [-2, -1], [-3, -2], [1, 1], [2, 1], [3, 2]])
y = np.array([1, 1, 1, 2, 2, 2])
clf = LinearDiscriminantAnalysis()
clf.fit(X, y)
LinearDiscriminantAnalysis(n_components=None, priors=None, shrinkage=None,
solver='svd', store_covariance=False, tol=0.0001)
print(clf.predict([[-0.8, -1]]))

基于最小错误率的贝叶斯决策。

我死也要推荐的!!! 数学之美番外篇:平凡而又神奇的贝叶斯方法

基于最小风险的贝叶斯决策于基于最小错误率的贝叶斯决策有什么不同?

模式识别笔记(二)——贝叶斯(最小错误和最小风险)

模式识别基本概念+聚类知识 模式识别笔记(一)

最小错误概率的表达式是固定的,最小化的是错误概率,而最小风险的贝叶斯,而风险是可以用一个损失矩阵表示的,我们最小化的是这个损失,而有时候损失最小不一定错误概率最小。

Fisher线性判别主要解决的是什么问题?

维数灾难

霍夫变换的原理是什么?他是怎么检测直线的?(个人兴趣)

霍夫变换(主要说明检测直线及圆的原理)

霍夫变换——直线检测

 

Bytheway:matlab19支持5G和强化学习的包啦

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: