机器学习中损失函数常用log的用意
2017-11-09 14:18
155 查看
Log Loss 在使用似然函数最大化时,其形式是进行连乘,但是为了便于处理,一般会套上log,这样便可以将连乘转化为求和,由于log函数是单调递增函数,因此不会改变优化结果。因此log类型的损失函数也是一种常见的损失函数.
一些常用的损失函数:
(1) Zero-one loss
(2) Perceptron loss
(3) Hinge loss
(4) Log loss
(5) Square loss
(6) Absolute loss
(7) Exponential loss
一些常用的损失函数:
(1) Zero-one loss
(2) Perceptron loss
(3) Hinge loss
(4) Log loss
(5) Square loss
(6) Absolute loss
(7) Exponential loss
相关文章推荐
- 机器学习基础(四十二)—— 常用损失函数的设计(multiclass SVM loss & hinge loss)
- git log 常用命令
- 常用cheat sheet 整理(正则、git、jquery、机器学习等等)
- 【干货】机器学习常用 35 大算法盘点(附思维导图)
- [日志log] 常用log日志记录方式对比和详解
- 机器学习中的常用分布
- 机器学习中常用的相关指标
- 『数据挖掘、机器学习』 常用算法思路、原理、公式、优缺点
- SVN常用命令之log(查看日志)
- 机器学习简介及常用算法
- LINUX系统监视——常用log日志文件以及各文件说明
- php项目中常用的log日志记录方法
- 机器学习中的损失函数分析与比较
- 机器学习笔记七:损失函数与风险函数
- Android 开发工具类,常用方法,Log 工具,数据库,时间戳转换
- 斯坦福大学机器学习笔记——单变量的线性回归以及损失函数和梯度下降法(包含代码)
- 机器学习中常见的损失函数
- 机器学习(5)-理解softmax的损失函数和梯度表达式的实现+编程总结
- 五款常用mysql slow log分析工具的比较分析
- python机器学习常用的几个库