1. 前言
- 转载请注明出处
- 文章中有一部分内容是个人理解,所以内容仅供参考
- 这里是官方说明文档传送门:sklearn.svm.SVR
- 本文可当做开发时的开发手册作为参考,建议收藏
2. 简介
- SVR为Support Vector Regression的简写,顾名思义,其是基于支持向量的回归器
- 模型中的两个自由参数为
C 和epsilon ,自由参数不能通过理论推测,可以通过实验、科研猜测和随机指定来设置,即自由参数的调节是个玄学,没有理论指导 - SVR是基于libsvm实现的
- SVR的拟合时间是和样本数量呈二次方指数关系,因此这一分类模型适用于样本较小的情况,如果样本量过大(>1W),建议使用其他回归模型,例如
LinearSVR 或者SGDRegressor
3. 语法
3.1 API形式
SVR(*, kernel='rbf', degree=3, gamma='scale', coef0=0.0, tol=0.001, C=1.0, epsilon=0.1, shrinking=True,
cache_size=200, verbose=False, max_iter=- 1)
3.2 参数说明
参数 | 名称 | 数据 | 作用 |
---|
kernel | 核函数 | 1. string类型 2. {‘linear’, ‘poly’, ‘rbf’, ‘sigmoid’, ‘precomputed’} 3. 默认值为’rbf’ | 1. 用来选择映射到高维线性可分的核函数 2. linear: 线性核函数; 优点: 简单、运算效率高;缺点: 对线性不可分的数据集没有很好的效果 3. ploy: 多项式核函数; 优点: 可以拟合出复杂的分割超平面;缺点: 有三个参数,调参困难,且当n过大时,模型拟合时间会很长 ; 4. rbf: 径向基函数 通常定义为样本到数据中心之间径向距离(通常是欧氏距离)的单调函数(由于距离是径向同性的); 相较于多项式核,具有参数少的优点 5. sigmoid:Logistic函数 也称为S型生长曲线,优点:平滑 6. precomputed:预训练好的核函数对应的Gram 矩阵 优点: 不用再次拟合核函数对应的Gram 矩阵,直接进行映射就可以了
| degree | 多项式核函数的维度 | 1. int类型,默认值为3 | 1. 只有在使用多项式核函数的时候才有用,使用其他核函数自动忽略此参数 2. 用来确定多项式核函数的维度,即n的值 | gamma | ‘rbf’, ‘poly’ 和‘sigmoid’ 核函数的系数 | 1. string类型,默认值为‘scale’ 2. {‘auto’, ‘scale’} | 1. auto: gamma = 1 / n_features 2. scale: gamma = 1 / (n_features * X.var()) 3. 只作用于 rbf, poly,sigmoid 三个核函数 | coef0 | 常数项 | 1. float类型,默认值为0 | 1. 只作用于poly 和 sigmoid 核函数 2. 作用相当于是对核函数映射的结果进行一个移位操作 | tol | 停止拟合容忍度 | 1. float类型,默认值为1e-3 即为0.001 | 1. 定义模型停止拟合的误差值 | C | 正则化系数 | 1. float类型,默认值为1.0 | 1. 正则化的强度与C的大小成反比,且必须为正。 2. 主要是用来防止模型过拟合 3. C值越大,对模型的惩罚越高,泛化能力越弱(过拟合) 4. 反之,C值越小,对模型的惩罚越低,泛化能力越强(欠拟合) | epsilon | 希腊字母
?
\epsilon
? | 1. float类型,默认值:0.1 | 1. 用来定义模型对于错误分类的容忍度,即错误分类而不受到惩罚 2.
?
\epsilon
?的值越大,模型允许错误分类的容忍度越高,反之,容忍度越小 3. 支持向量的个数对
?
\epsilon
? 的大小敏感,即
?
\epsilon
? 的值越大,支持向量的个数越少,反之,支持向量的个数越多 4. 也可以理解为
?
\epsilon
? 的值越小,模型越过拟合,反之,越大越欠拟合 | shrinking | 启用启发式收缩 | 1. bool类型,默认为True | 1. 是否采用启发式收缩,当迭代次数过大时, 启用启发式收缩可以缩短训练时间,然而如果我们对停止迭代容忍度较高时(tol参数来反映),不用启发式收缩可能会更快一些 | cache_size | 核缓存大小 | 1. float类型,默认值为200(MB) | 1. 指定模型在训练时,能占用的最大RAM空间(PS. 经过实验,当大小设置超过2000MB时,训练时长反而会增加,这应该是一个BUG),在2000MB以内,不超过其所需最大内存,则不会降低训练速度,也不会增加。 2. 所以训练多采用的数据集维度越高,条数越高,当所需内存超出了,我们可以通过调整cache_size 的大小来加快模型拟合 | verbose | 启用详细输出 | 1. bool类型,默认值:False | 1. 该参数表示日志是否启用详细输出,会输出iter次数,nSV等参数的值 2. 如果启用,可能会导致无法进行多线程工作,降低拟合速率 | max_iter | 最大迭代次数 | 1. int类型,默认值: -1 | 1. 硬性设置最大迭代次数,不管模型是否拟合完成,即不关心误差值(tol参数) 2. 设置-1的话,意味着不限制迭代次数,即按照误差值来停止模型拟合 |
3.3 属性说明
属性 | 名称 | 数据 | 作用 |
---|
class_weight | 各类权重 | 1. ndarray,一维数组,(n_classes, ) | 1. 用来获取模型对各个类别设置的权重,与参数中的class_weight相关
| coef_ | 特征权重向量 | 1. ndarray,二维数组,(n_classes * (n_classes - 1) / 2, n_features) | 1. 获取特征权重向量 2. 当核函数为linear时,才可以调用这一属性 | dual_coef_ | 对偶系数 | 1. ndarray,二维数组,(n_classes -1, n_SV) | 1. decision_funciton 中的支持向量的对偶系数 2. n_SV 为支持向量的个数 3. 所有 ovo 分类器的系数 | fit_status_ | 拟合状态 | 1. int类型 | 1. 拟合成功0, 否则为1,进行告警 | intercept_ | 决策函数常量 | 1. ndarray,一维数组, (n_classes * (n_classes - 1) / 2, ) | 1. decision_funciton 中的常量 | n_features_in_ | 特征数量 | 1. int类型 | 1. 拟合过程中使用到的特征数量 | feature_names_in_ | 特征名称 | 1. ndarray,一维数组,(n_features_in_,) | 1. 获取拟合时特征的名称 | n_support_ | 每类的支持向量数 | 1. ndarray,一维数组 ,(n_classes,), dtype=int32 | 1. 获取每种类别的支持向量数 | shape_fit_ | 数组维数 | 1.元组,(n_dimensions_of_X,) | 1.训练向量X的数组维数 | support_ | 支持向量索引 | 1. ndarray,一维数组, (n_SV,) | 1. 获取模型拟合后获得的所有支持向量的索引 | support_vectors_ | 支持向量 | 1. ndarray,二维数组,(n_SV, n_features) | 1. 获取所有的支持向量 |
4. 方法说明
4.1 fit(X, y, sample_weight=None)
1. 描述: 用训练数据拟合模型 2. 参数: X: 训练数据; y: 训练数据标签; sample_weight: 每个样本的权重,(n_samples,) 3. 返回值: 自身,拟合好的模型 4. 注意: 无
4.2 get_params(deep=True)
1. 描述: 获取模型的所有参数 2. 参数: 如果为真,则将返回此模型和作为模型的所包含子对象的参数 3. 返回值: 字典类型, 所有的参数 4. 注意: 无
4.3 predict(X)
1. 描述: 用拟合好的模型对所有样本X进行预测 2. 参数: 所有预测样本,二维数组(n_samples, n_features) 3. 返回值: 所有预测 X的预测标签,一维数组,(n_sample, ) 4. 注意: 无
4.4 score(X, y, sample_weight=None)
1. 描述: 返回给定测试数据上的平均准确度 2. 参数: X: 训练数据; y: 训练数据标签; sample_weight: 每个样本的权重,(n_samples,) 3. 返回值:
R
2
R^2
R2 4. 注意:
R
2
R^2
R2 被定义为
1
?
u
/
v
1-u/v
1?u/v,
u
u
u 是
∑
i
=
1
n
(
y
?
y
^
)
2
\sum_{i=1}^n(y - \hat{y})^2
∑i=1n?(y?y^?)2 的残差和,
v
v
v 是
∑
i
=
1
n
(
y
?
y
.
m
e
a
n
(
)
)
2
\sum_{i=1}^n{(y-y.mean())^2}
∑i=1n?(y?y.mean())2的平方和,
R
2
R^2
R2 的值越大证明模型性能越好,最大为1,其值也可以为负,意味着模型性能更差,且无最小值
4.5 set_params(**params)
1. 描述: 重置当前模型的参数 2. 参数: 字典类型,内容为当前模型的参数 3. 返回值: 重置参数后的模型 4. 注意: 无
5. 总结
在写这篇文章的过程中发现了前一篇文章的一些错误,已经回头修改了。在查阅文献的过程中,明白了SVM为什么能做回归任务了,因为其本质上仍是把回归任务当做分类任务来处理,只不过在模型评价的过程中,用了不一样的评价指标,这里是
R
2
R^2
R2 。
有时间再继续更新~
希望这篇文档能对各位看官产生一定的帮助, 如有不妥,欢迎评论区指正~
6. 参考资料
- sklearn.svm.SVR
- 百度百科:自由参数
- Wikipedia:Free parameter
- LIBSVM: A Library for Support Vector Machines
- How to show \epsilon in R Markdown
- Meaning of Epsilon in SVM regression
- cache_size effect on SVC processing time
- Verbose log abbriviations meaning in SVC, scikit-learn
- Unlocking the True Power of Support Vector Regression
- 回归模型的性能评价指标
|