机器学习笔记六 - 朴素贝叶斯的多项式事件模型、神经网络、支持向量机的函数间隔与几何间隔
2017-10-10 19:46
639 查看
本篇笔记针对斯坦福ML公开课的第6个视频,主要内容包括朴素贝叶斯的多项式事件模型(MultivariateBernoulli Event Model)、神经网络(Neural Network)、支持向量机(Support Vector Machine)的函数间隔(functionalmargin)与几何间隔(geometricmargin)。
相关文章推荐
- 7.朴素贝叶斯的多项式事件模型,SVM初步,神经网络初步
- [置顶] NB多项式事件模型、神经网络、SVM之函数/几何间隔——斯坦福ML公开课笔记6
- Stanford大学机器学习公开课(六):朴素贝叶斯多项式模型、神经网络、SVM初步
- Andrew NG机器学习课程笔记系列之——机器学习之神经网络模型-上(Neural Networks: Representation)
- Andrew NG机器学习课程笔记系列之——机器学习之神经网络模型-下(Neural Networks: Representation)
- 机器学习笔记-神经网络中激活函数(activation function)对比--Sigmoid、ReLu,tanh
- 机器学习笔记之神经网络模型(二)
- 斯坦福大学Andrew Ng - 机器学习笔记(3) -- 神经网络模型
- 机器学习笔记之神经网络模型(一)
- 机器学习笔记(五)神经网络
- 机器学习笔记(XVIII)神经网络(V)全局最小局部极小
- 机器学习之神经网络模型-下(Neural Networks: Representation)
- Coursera公开课笔记: 斯坦福大学机器学习第八课“神经网络的表示(Neural Networks: Representation)”
- 机器学习(11.3)--神经网络(nn)算法的深入与优化(3) -- QuadraticCost(二次方代价函数)数理分析
- Stanford机器学习课程笔记——神经网络的表示
- 神经网络与机器学习导言笔记——网络结构与知识表示
- 机器学习之神经网络模型-下(Neural Networks: Representation)
- 机器学习公开课笔记(4):神经网络(Neural Network)——表示
- 吴恩达 机器学习 神经网络编程代码练习笔记
- 理解激活函数在神经网络模型构建中的作用