前言
本文章为天池“动手学数据分析”小组学习的Task05-学习日志,旨在了解数据分析中模型的建立与评估基本步骤及相关python处理。 学习网址添加链接描述添加链接描述
一、前期操作
1.引入库
代码如下:
import numpy as np
import pandas as pd
import os
import matplotlib.pyplot as plt
import seaborn as sns
from IPython.display import Image
from sklearn.model_selection import train_test_split #用于数据分隔
from sklearn.linear_model import LogisticRegression #线性模型所在的模块
from sklearn.ensemble import RandomForestClassifier #树模型所在的模块
from sklearn.model_selection import cross_val_score #交叉验证在sklearn中的模块
from sklearn.metrics import confusion_matrix #混淆矩阵的方法在sklearn中的模块
from sklearn.metrics import classification_report #精确率、召回率以及f-分数
示例:pandas 是基于NumPy 的一种工具,该工具是为了解决数据分析任务而创建的。
2.引入数据及调整绘图参数
代码如下:
#调整参数
plt.rcParams['font.sans-serif'] = ['SimHei'] # 用来正常显示中文标签
plt.rcParams['axes.unicode_minus'] = False # 用来正常显示负号
plt.rcParams['figure.figsize'] = (10, 6) # 设置输出图片大小
print(train_join1.head())
clear_data=pd.read_csv('D:\python\ITEM\hands-on-data-analysis-master\hands-on-data-analysis-master\第三章项目集合\clear_data.csv')
print(clear_data.head(3))
二、建立模型
1.基本步骤
1.对数据进行处理; 2.根据数据特性、样本量及特征稀疏性选择对数据集是进行监督学习还是无监督学习; 3.先尝试使用一个模型作为基础,进而再训练其他模型做对比,最终选择泛化能力或性能比较好的模型.
2.切割训练集和测试集
2.1.处理步骤
1.将数据集分为自变量和因变量; 2.按比例切割训练集和测试集 3.使用分层抽样 4.设置随机种子以便结果能复现
2.2.划分数据集的方法
1.留出法: 直接将数据集D划分为两个互斥的集合,一个为训练集S,一个为测试集T,即D = S ∪ T , S ∩ T = ? . 在S上进行模型学习,然后用T 来评估其测试误差,作为对泛化误差的估计。单次使用留出法得到的估计结果往往不够稳定可靠,在使用留出法时,一般要采用若干次随机划分、重复进行模型评估后取平均值作为留出法的评估结果;
2.交叉验证法:先将数据集D DD划分为k kk个大小相同的互斥子集,即D = D 1 ∪ D 2 ∪ ? ∪ D k , D i ∩ D j = ? ( i ≠ j ) . 其中每个子集D i都应尽量保持数据分布的一致性,即从D 中通过分层采样得到; 其中的 k-1个子集的并集作为训练集,余下一个作为测试集,这样就可以得到k组训练集/测试集,从而可以进行k次模型的学习,并把这k个测试结果的均值作为评估结果,通常我们把交叉验证法称为“k 折交叉验证”。
3.对数据集:D进行采样产生新数据集D′:每次从D中进行有放回的随机采样,取得样本放入D ′中,直至D ′ 的样本个数也为m.显然,D中的一部分样本有可能会多次出现在D ′ 中,对任意一个样本,在m mm次采样中没有被取到的概率为( 1 ? 1/ m )^ m ,自助法在数据集较小、难以有效划分训练/测试集时很有用。
原文链接:添加链接描述
2.3.分层抽样的特点
优点:1) 由于分层后增加了层内的同质性,观察指标变异减小,各层的抽样误差减小。 2) 分层抽样便于对不同层采用不同的抽样方法。 3) 分层抽样便于对各层独立进行分析。
缺点:层间变异较大,抽样误差较小;如果分层特征选择不当,层内变异较大,层间变异较小,抽样误差仍然较大,分层抽样就失去了意义。
2.4.泰坦尼克幸存数据分割——留出法划分
代码如下:
# 一般先取出X和y后再切割,有些情况会使用到未切割的,这时候X和y就可以用,x是清洗好的数据,y是我们要预测的存活数据'Survived'
X = clear_data
y = train_join1['Survived']
#切割
X_train, X_test, y_train, y_test =train_test_split(X, y, stratify=y, random_state=0)
# 查看数据形状
print(X_train.shape)
print(X_test.shape)
结果如下:
(668, 11)
(223, 11)
注释: train_test_split函数用于将矩阵随机划分为训练子集和测试子集,并返回划分好的训练集测试集样本和训练集测试集标签。 函数:X_train,X_test, y_train, y_test =cross_validation.train_test_split(train_data,train_target,test_size=0.3, random_state=0) 参数: ^train_data:被划分的样本特征集 ^train_target:被划分的样本标签 ^test_size:如果是浮点数,在0-1之间,表示样本占比;如果是整数的话就是样本的数量 ^random_state:是随机数的种子。 ^随机数种子:其实就是该组随机数的编号,在需要重复试验的时候,保证得到一组一样的随机数。比如你每次都填1,其他参数一样的情况下你得到的随机数组是一样的。但填0或不填,每次都会不一样。随机数的产生取决于种子,随机数和种子之间的关系遵从以下两个规则:种子不同,产生不同的随机数;种子相同,即使实例不同也产生相同的随机数 ^stratify是为了保持split前类的分布。用了stratify参数,training集和testing集的类的比例是split前的比例。通常在类分布不平衡的情况下会用到stratify。 将stratify=X就是按照X中的比例分配 将stratify=y就是按照y中的比例分配
2.模型创建
2.1.常见模型
1.创建基于线性模型的分类模型(逻辑回归),其中逻辑回归不是回归模型而是分类模型; 2.创建基于树的分类模型(决策树、随机森林),其中随机森林是决策树集成为了降低决策树过拟合的情况;
2.1.创建逻辑回归模型
默认参数回归模型,代码如下:
lr = LogisticRegression()
lr.fit(X_train, y_train)
# 查看训练集和测试集score值
print("Training set score: {:.2f}".format(lr.score(X_train, y_train)))
print("Testing set score: {:.2f}".format(lr.score(X_test, y_test)))
结果如下:
Training set score: 0.80
Testing set score: 0.79
调整参数回归模型,代码如下:
lr2 = LogisticRegression(C=100)
lr2.fit(X_train, y_train)
print("Training set score: {:.2f}".format(lr2.score(X_train, y_train)))
print("Testing set score: {:.2f}".format(lr2.score(X_test, y_test)))
结果如下:
Training set score: 0.79
Testing set score: 0.78
2.2.随机森林分类模型
默认参数随机森林分类模型,代码如下:
rfc = RandomForestClassifier()
rfc.fit(X_train, y_train)
print("Training set score: {:.2f}".format(rfc.score(X_train, y_train)))
print("Testing set score: {:.2f}".format(rfc.score(X_test, y_test)))
结果如下:
Training set score: 1.00
Testing set score: 0.82
调整参数随机森林分类模型,代码如下:
rfc2 = RandomForestClassifier(n_estimators=100, max_depth=5)
rfc2.fit(X_train, y_train)
print("Training set score: {:.2f}".format(rfc2.score(X_train, y_train)))
print("Testing set score: {:.2f}".format(rfc2.score(X_test, y_test)))```
<font color=#999AAA >结果如下:
```c
Training set score: 0.88
Testing set score: 0.81
2.3.创建逻辑回归模型
输出模型预测结果,代码如下:
# 预测标签
pred = lr.predict(X_train)
# 此时我们可以看到0和1的数组
print(pred[:10])
# 预测标签概率
pred_proba = lr.predict_proba(X_train)
#%%
print(pred_proba[:10])
结果如下:
[0 1 1 1 0 0 1 0 1 1]
[[0.60729586 0.39270414]
[0.18238096 0.81761904]
[0.42258598 0.57741402]
[0.19331014 0.80668986]
[0.8793502 0.1206498 ]
[0.91331757 0.08668243]
[0.13394337 0.86605663]
[0.90560106 0.09439894]
[0.05273676 0.94726324]
[0.10973509 0.89026491]]
2.4.线性分类模型
线性分类模型分为判别式模型和生成式模型,把分类问题分成两个阶段:推断阶段和决策阶段,对于输入变量x,分类标记为Ck。 推断阶段和决策阶段具体表示为: 推断阶段:估计P(x,Ck)的联合概率分布,对P(x,Ck)归一化,求得后验概率P(Ck|x)。 决策阶段:对于新输入的x,可根据后验概率P(Ck|x)得到分类结果。 判别式模型和生成性模型的区别: 判别式模型:简单的学习一个函数,将输入x直接映射为决策,称该函数为判别式函数。 生成式模型:推断阶段确定后验概率分布,决策阶段输出分类结果,生成式模型包含两个阶段。
3.模型评估
3.1.背景简介
模型评估:是为了知道模型的泛化能力,交叉验证(cross-validation)是一种评估泛化性能的统计学方法,它比单次划分训练集和测试集的方法更加稳定、全面。在交叉验证中,数据被多次划分,并且需要训练多个模型。最常用的交叉验证是 k 折交叉验证(k-fold cross-validation),其中 k 是由用户指定的数字,通常取 5 或 10。 * 准确率(precision)度量的是被预测为正例的样本中有多少是真正的正例 * 召回率(recall)度量的是正类样本中有多少被预测为正类 * f-分数是准确率与召回率的调和平均;
3.2.交叉验证(10折交叉验证来评估)
代码如下:
# k折交叉验证分数
lr = LogisticRegression(C=100)
scores = cross_val_score(lr, X_train, y_train, cv=10)
print(scores)
# 平均交叉验证分数
print("Average cross-validation score: {:.2f}".format(scores.mean()))
结果如下:
[0.82089552 0.74626866 0.74626866 0.80597015 0.86567164 0.8358209
0.76119403 0.82089552 0.74242424 0.74242424]
Average cross-validation score: 0.79
注:随着K值的不断升高,单一模型评估时的方差逐渐加大而偏差减小。但从总体模型角度来看,反而是偏差升高了而方差降低了。
3.2.混淆矩阵
二分类模型的时候会遇到拿训练好的模型来做预测时,所有标签都会被预测成一个类别,为了解决不平衡数据的问题,确定一个适合业务的截断点,评价二分类模型性能时引入了混淆矩阵的概念。
代码如下:
# 训练模型
lr = LogisticRegression(C=100)
lr.fit(X_train, y_train)
# 模型预测结果
pred = lr.predict(X_train)
# 混淆矩阵
confusion_matrix(y_train, pred)
# 精确率、召回率以及f1-score
print(classification_report(y_train, pred))
结果如下:
# 训练模型
precision recall f1-score support
0 0.81 0.86 0.83 412
1 0.75 0.68 0.71 256
accuracy 0.79 668
macro avg 0.78 0.77 0.77 668
weighted avg 0.79 0.79 0.79 668
Process finished with exit code 0
3.3.ROC曲线
ROC曲线图是反映敏感性与特异性之间关系的曲线。横坐标X轴为 1 – 特异性,也称为假阳性率(误报率),X轴越接近零准确率越高;纵坐标Y轴称为敏感度,也称为真阳性率(敏感度),Y轴越大代表准确率越好。
根据曲线位置,把整个图划分成了两部分,曲线下方部分的面积被称为AUC(Area Under Curve),用来表示预测准确性,AUC值越高,也就是曲线下方面积越大,说明预测准确率越高。曲线越接近左上角(X越小,Y越大),预测准确率越高。
来源:添加链接描述
代码如下:
fpr, tpr, thresholds = roc_curve(y_test, lr.decision_function(X_test))
plt.plot(fpr, tpr, label="ROC Curve")
plt.xlabel("FPR")
plt.ylabel("TPR (recall)")
# 找到最接近于0的阈值
close_zero = np.argmin(np.abs(thresholds))
plt.plot(fpr[close_zero], tpr[close_zero], 'o', markersize=10, label="threshold zero", fillstyle="none", c='k', mew=2)
plt.legend(loc=4)
plt.show()
结果如下:
|