机器学习中的必修数学(一)
2017-09-21 21:04
288 查看
机器学习的领域
![](http://img.blog.csdn.net/20170921205103202?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
基本的机器学习算法的分类
![](http://img.blog.csdn.net/20170921205828409?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
得分函数
如图,经过一系列的计算,最后得到的概率就叫得分函数
![](http://img.blog.csdn.net/20170921205136009?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
损失函数
得分函数与真实数据比较之后的误差叫做损失函数
![](http://img.blog.csdn.net/20170921205153044?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
机器学习中的算法简介
无监督学习(连续型):SVD、PCA、K-means
无监督学习(离散型):Apriori、FP-Growth、Hidden Markov Model
监督学习(连续型):Regression(Linear、Polynomial)、Decsion Trees、Random Forests
监督学习(离散型):Classification(KNN、Trees、Logistic Regression、Native-Bayes、SVM)
![](http://img.blog.csdn.net/20170921205201084?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
Scikit-learn Algorithm Cheat sheet
![](http://img.blog.csdn.net/20170921205210065?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
两边夹定理/夹逼定理
![](http://img.blog.csdn.net/20170921205232658?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
导数
导数是曲线的斜率,二阶导数是斜率变化快慢的反映
![](http://img.blog.csdn.net/20170921205240719?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
9. 方向导数
![](http://img.blog.csdn.net/20170921205248641?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
10. 梯度
![](http://img.blog.csdn.net/20170921205257867?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
11. 凸函数
![](http://img.blog.csdn.net/20170921205407890?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
![](http://img.blog.csdn.net/20170921205305940?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
![](http://img.blog.csdn.net/20170921205449246?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
12. 琴生不等式
如果是凸函数
![](http://img.blog.csdn.net/20170921205457918?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
13. 常见的概率分布
![](http://img.blog.csdn.net/20170921205600689?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
![](http://img.blog.csdn.net/20170921205539743?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
![](http://img.blog.csdn.net/20170921205551106?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
14. 概率
![](http://img.blog.csdn.net/20170921205622329?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
15. 常见函数的导数
![](http://img.blog.csdn.net/20170921205631181?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
16. 泰勒公式
![](http://img.blog.csdn.net/20170921205640322?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
17. 概率与统计的关注点
![](http://img.blog.csdn.net/20170921205649183?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
18. 概率统计与机器学习的关系
![](http://img.blog.csdn.net/20170921205657702?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
19. 方差
![](http://img.blog.csdn.net/20170921205705730?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
20. 协方差
协方差矩阵的特征分解-SVD
协方差是用来评价两个随机变量的线性关系
方差同时除以X的标准差和Y的标准差得出来的是相关系数
![](http://img.blog.csdn.net/20170921205718526?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
21. 期望
![](http://img.blog.csdn.net/20170921205726045?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQveW1mODI3MzExOTQ1/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)
22. SVD的几何意义
原始数据,比如每一行都是一个文本,每列都是一个单词,实际上,我们对于每一个文本都可以用里面所有的单词出现的次数的一个向量作为表示,向量的每一行都对应的一个文本,变成一个矩阵,但是有一个问题,假设词语的个数有60个亿,那么有60亿的词语就有60亿的列,因为太大,所以放不下,因此需要使用方法截短,怎么挑出来?就是一个降维的问题
23. 矩阵乘法在计算中的优势
内积:向量和矩阵相乘
基本的机器学习算法的分类
得分函数
如图,经过一系列的计算,最后得到的概率就叫得分函数
损失函数
得分函数与真实数据比较之后的误差叫做损失函数
机器学习中的算法简介
无监督学习(连续型):SVD、PCA、K-means
无监督学习(离散型):Apriori、FP-Growth、Hidden Markov Model
监督学习(连续型):Regression(Linear、Polynomial)、Decsion Trees、Random Forests
监督学习(离散型):Classification(KNN、Trees、Logistic Regression、Native-Bayes、SVM)
Scikit-learn Algorithm Cheat sheet
两边夹定理/夹逼定理
导数
导数是曲线的斜率,二阶导数是斜率变化快慢的反映
9. 方向导数
10. 梯度
11. 凸函数
12. 琴生不等式
如果是凸函数
13. 常见的概率分布
14. 概率
15. 常见函数的导数
16. 泰勒公式
17. 概率与统计的关注点
18. 概率统计与机器学习的关系
19. 方差
20. 协方差
协方差矩阵的特征分解-SVD
协方差是用来评价两个随机变量的线性关系
方差同时除以X的标准差和Y的标准差得出来的是相关系数
21. 期望
22. SVD的几何意义
原始数据,比如每一行都是一个文本,每列都是一个单词,实际上,我们对于每一个文本都可以用里面所有的单词出现的次数的一个向量作为表示,向量的每一行都对应的一个文本,变成一个矩阵,但是有一个问题,假设词语的个数有60个亿,那么有60亿的词语就有60亿的列,因为太大,所以放不下,因此需要使用方法截短,怎么挑出来?就是一个降维的问题
23. 矩阵乘法在计算中的优势
内积:向量和矩阵相乘
相关文章推荐
- 机器学习中的必修数学(二)
- 机器学习中的必修数学(七)
- 机器学习中的必修数学(三)
- 机器学习中的必修数学(四)
- 机器学习中的必修数学(九)
- 机器学习中的必修数学(六)
- 机器学习中的必修数学(十)
- 机器学习中的必修数学(八)
- 机器学习中的必修数学(五)
- 机器学习的数学基础(1)--Dirichlet分布
- 机器学习中的数学(1)-回归(regression)、梯度下降(gradient descent)
- 机器学习中的上凸与同济大学高等数学的上凸区别
- 机器学习-数学
- 机器学习中的数学(4)-线性判别分析(LDA), 主成分分析(PCA)
- 机器学习中的数学(4)-线性判别分析(LDA), 主成分分析(PCA)
- 机器学习-数学期望
- 数学之路(3)-机器学习(4)-综合应用-候选消除法
- 数学之路(3)-机器学习(3)-机器学习算法-SVM[4]
- 机器学习笔记_数学基础_3-数理统计
- 机器学习中的数学(1)-回归(regression)、梯度下降(gradient descent)