您的位置:首页 > 其它

统计学 回归分析( Regression Analysis)

2016-07-19 02:37 225 查看
Regression Analysis 是一种用来估算两个或者多个变量之间关系.

它有两个明显的好处:

1.能显示自变量和因变量之间的关系

2.能显示自变量和因变量之间的关系的强弱

有多少种:

1. Linear Regression (线性回归)

最常用的回归方法.

因变量是连续的; 自变量可以是连续的,也可以是离散的; 线性的.

注意:

自变量和因变量的关系必须是线性的
噪点对 线性回归 的影响是致命 ( 去除噪点)
自变量可以为多个( multiple linear regression)

2. Logistic Regression 

用来估算因变量发生的概率,前提是因变量是binary 结果.

注意:

通常被用在classification 问题上
不要求自变量和因变量的关系是线性的
要求更大的样本数据 - 使用maximum likelihood 方法在大样本 下更加精确
因变量之间不应该相互影响
如果因变量是ordinal ,那么称为 ordinal logistic regression  了解ordinal
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: