您的位置:首页 > 其它

sklearn学习笔记-逻辑回归LogisticRegression

2018-03-24 17:56 232 查看
sklearn.linear_model.LogisticRegression
LogisticRegression
(penalty=’l2’, dual=False, tol=0.0001, C=1.0, fit_intercept=True, intercept_scaling=1, class_weight=None, random_state=None, solver=’liblinear’, max_iter=100, multi_class=’ovr’, verbose=0, warm_start=False, n_jobs=1)
参数   1  penalty   :str 'l1'或者'l2' 字面意义“惩罚”,即正则化项,L1正则项或者L2正则下项,默认L2
          2  dual        :boolean   默认为False
          3  tol           :float  默认1e-4   个人理解为,代价误差达到该值则停止计算
          4  C             :float  默认 1.0     C为代价项的系数,C越大表示整个代价函数中,代价项占比更多,即正则项影响较小;反之C越小,表示正则项影响更大
          5  fit_intercept
          6  intercept_scaling
          7  class_weight   :dict 或者 ‘balanced’,默认none
          8  solver             : {‘newton-cg’, ‘lbfgs’, ‘liblinear’, ‘sag’, ‘saga’}求解目标函数的优化方法。小数据集-liblinear;大数据集-sag/saga求解速度更快;多分类问题-newton-cg/lbfgs/sag/saga;使用L2正则-newton/sag/lbfgs

           9  multi_class      : 'ovr'或者‘multinomial’
          10 n_jobs           : 任务数,使用的CPU核数,-1为使用全部CPU核心数。solver='liblinear'时不起作用
属性     1 coef     系数
             2 intercept_

             3 n_iter_  迭代次数
方法     1 fit (X,y)  拟合,X为除去标签的特征;y为训练集的标签
           2 predict(test) 预测,对测试集进行预测
后续慢慢补充
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: