机器学习与统计学 · 2020年02月09日

Ridge回归 sklearn API参数速查手册

Ridge回归 sklearn API参数速查手册


语法
sklearn.linear_model.Ridge(alpha=1.0,
fit_intercept=True, normalize=False,
copy_X=True, max_iter=None, tol=0.001,
solver='auto', random_state=None)
Parameters
alpha

释义: 正则化项系数,较大的值指定更强的正则化

设置:Alpha对应于其他线性模型(如Logistic回归或LinearSVC)中的C^-1。如果传递数组,则假定惩罚被特定于目标。因此,它们必须在数量上对应。

fit_intercept

释义:是否计算该模型的截距

设置:bool型,可选,默认True;如果使用中心化的数据,可以考虑设置为False,不考虑截距

normalize

释义:是否对数据进行标准化处理,若不计算截距,则忽略此参数

设置:bool型,可选,默认False,建议将标准化的工作放在训练模型之前,通过设置sklearn.preprocessing.StandardScaler来实现,而在此处设置为false;当fit_intercept设置为false的时候,这个参数会被自动忽略。如果为True,回归器会标准化输入参数:减去平均值,并且除以相应的二范数

copy_X

释义:是否对X复制

设置:bool型、可选、默认True;如为false,则即经过中心化,标准化后,把新数据覆盖到原数据X上

max_iter

释义:共轭梯度求解器的最大迭代次数,需要与solver求解器配合使用

设置:solver为sparse_cg和lsqr时,默认由scipy.sparse.linalg确定,solver为sag时,默认值为1000

tol

释义:计算精度

设置:float型,默认=1e-3

solver

释义:求解器{auto,svd,cholesky,lsqr,sparse_cg,sag,saga}

设置:

aotu:根据数据类型自动选择求解器

svd:使用X的奇异值分解计算岭系数,奇异矩阵比cholesky更稳定

cholesky:使用标准的scipy.linalg.solve函数获得收敛的系数

sparse_cg:使用scipy.sparse.linalg.cg中的共轭梯度求解器。比cholesky更适合大规模数据(设置tol和max_iter的可能性)

lsqr:专用的正则化最小二乘方法scipy.sparse.linalg.lsqr

sag:随机平均梯度下降;仅在fit_intercept为True时支持密集数据

saga:sag改进,无偏版.采用SAGA梯度下降法可以使模型快速收敛

random_state

释义:随机数生成器的种子,仅在solver="sag"时使用

设置:int型, 默认None

Attributes
coef_

返回模型的估计系数(权重向量)

intercept_

线性模型的独立项,一维情形下的截距

n_iter_

实际迭代次数

Methods
fit(self, X, y[, sample_weight])

输入训练样本数据X,和对应的标记y

get_params(self[, deep])

返回函数linear_model.Ridge()内部的参数值

predict(self, X)

利用学习好的线性分类器,预测标记

score(self, X, y[, sample_weight])

返回模型的拟合优度判定系数

set_params(self, **params)

设置函数linear_model.Ridge()内部的参数

本文由博客一文多发平台 OpenWrite 发布!
推荐阅读
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息