IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 数据结构与算法 -> “动手学数据分析”小组学习的Task05-学习日志 -> 正文阅读

[数据结构与算法]“动手学数据分析”小组学习的Task05-学习日志


前言

本文章为天池“动手学数据分析”小组学习的Task05-学习日志,旨在了解数据分析中模型的建立与评估基本步骤及相关python处理。
学习网址添加链接描述添加链接描述


一、前期操作

1.引入库

代码如下:

import numpy as np
import pandas as pd
import os
import matplotlib.pyplot as plt
import seaborn as sns
from IPython.display import Image
from sklearn.model_selection import train_test_split #用于数据分隔
from sklearn.linear_model import LogisticRegression   #线性模型所在的模块
from sklearn.ensemble import RandomForestClassifier   #树模型所在的模块
from sklearn.model_selection import cross_val_score  #交叉验证在sklearn中的模块
from sklearn.metrics import confusion_matrix  #混淆矩阵的方法在sklearn中的模块
from sklearn.metrics import classification_report #精确率、召回率以及f-分数

示例:pandas 是基于NumPy 的一种工具,该工具是为了解决数据分析任务而创建的。

2.引入数据及调整绘图参数

代码如下:

#调整参数
plt.rcParams['font.sans-serif'] = ['SimHei']  # 用来正常显示中文标签
plt.rcParams['axes.unicode_minus'] = False  # 用来正常显示负号
plt.rcParams['figure.figsize'] = (10, 6)  # 设置输出图片大小


print(train_join1.head())
clear_data=pd.read_csv('D:\python\ITEM\hands-on-data-analysis-master\hands-on-data-analysis-master\第三章项目集合\clear_data.csv')
print(clear_data.head(3))

二、建立模型

1.基本步骤

1.对数据进行处理;
2.根据数据特性、样本量及特征稀疏性选择对数据集是进行监督学习还是无监督学习;
3.先尝试使用一个模型作为基础,进而再训练其他模型做对比,最终选择泛化能力或性能比较好的模型.

2.切割训练集和测试集

2.1.处理步骤

1.将数据集分为自变量和因变量;
2.按比例切割训练集和测试集
3.使用分层抽样
4.设置随机种子以便结果能复现

2.2.划分数据集的方法

1.留出法: 直接将数据集D划分为两个互斥的集合,一个为训练集S,一个为测试集T,即D = S ∪ T , S ∩ T = ? . 在S上进行模型学习,然后用T 来评估其测试误差,作为对泛化误差的估计。单次使用留出法得到的估计结果往往不够稳定可靠,在使用留出法时,一般要采用若干次随机划分、重复进行模型评估后取平均值作为留出法的评估结果;

2.交叉验证法:先将数据集D DD划分为k kk个大小相同的互斥子集,即D = D 1 ∪ D 2 ∪ ? ∪ D k , D i ∩ D j = ? ( i ≠ j ) . 其中每个子集D i都应尽量保持数据分布的一致性,即从D 中通过分层采样得到;
其中的 k-1个子集的并集作为训练集,余下一个作为测试集,这样就可以得到k组训练集/测试集,从而可以进行k次模型的学习,并把这k个测试结果的均值作为评估结果,通常我们把交叉验证法称为“k 折交叉验证”。

3.对数据集:D进行采样产生新数据集D′:每次从D中进行有放回的随机采样,取得样本放入D ′中,直至D ′ 的样本个数也为m.显然,D中的一部分样本有可能会多次出现在D ′ 中,对任意一个样本,在m mm次采样中没有被取到的概率为( 1 ? 1/ m )^ m ,自助法在数据集较小、难以有效划分训练/测试集时很有用。

原文链接:添加链接描述

2.3.分层抽样的特点

优点:1) 由于分层后增加了层内的同质性,观察指标变异减小,各层的抽样误差减小。
2) 分层抽样便于对不同层采用不同的抽样方法。
3) 分层抽样便于对各层独立进行分析。

缺点:层间变异较大,抽样误差较小;如果分层特征选择不当,层内变异较大,层间变异较小,抽样误差仍然较大,分层抽样就失去了意义。

2.4.泰坦尼克幸存数据分割——留出法划分

代码如下:

# 一般先取出X和y后再切割,有些情况会使用到未切割的,这时候X和y就可以用,x是清洗好的数据,y是我们要预测的存活数据'Survived'
X = clear_data
y = train_join1['Survived']

#切割
X_train, X_test, y_train, y_test =train_test_split(X, y, stratify=y, random_state=0)

# 查看数据形状
print(X_train.shape)
print(X_test.shape)

结果如下:

(668, 11)
(223, 11)

注释:
train_test_split函数用于将矩阵随机划分为训练子集和测试子集,并返回划分好的训练集测试集样本和训练集测试集标签。
函数:X_train,X_test, y_train, y_test =cross_validation.train_test_split(train_data,train_target,test_size=0.3, random_state=0)
参数:
^train_data:被划分的样本特征集
^train_target:被划分的样本标签
^test_size:如果是浮点数,在0-1之间,表示样本占比;如果是整数的话就是样本的数量
^random_state:是随机数的种子。
^随机数种子:其实就是该组随机数的编号,在需要重复试验的时候,保证得到一组一样的随机数。比如你每次都填1,其他参数一样的情况下你得到的随机数组是一样的。但填0或不填,每次都会不一样。随机数的产生取决于种子,随机数和种子之间的关系遵从以下两个规则:种子不同,产生不同的随机数;种子相同,即使实例不同也产生相同的随机数
^stratify是为了保持split前类的分布。用了stratify参数,training集和testing集的类的比例是split前的比例。通常在类分布不平衡的情况下会用到stratify。
将stratify=X就是按照X中的比例分配
将stratify=y就是按照y中的比例分配

2.模型创建

2.1.常见模型

1.创建基于线性模型的分类模型(逻辑回归),其中逻辑回归不是回归模型而是分类模型;
2.创建基于树的分类模型(决策树、随机森林),其中随机森林是决策树集成为了降低决策树过拟合的情况;

2.1.创建逻辑回归模型

默认参数回归模型,代码如下:

lr = LogisticRegression()
lr.fit(X_train, y_train)

# 查看训练集和测试集score值
print("Training set score: {:.2f}".format(lr.score(X_train, y_train)))
print("Testing set score: {:.2f}".format(lr.score(X_test, y_test)))

结果如下:

Training set score: 0.80
Testing set score: 0.79

调整参数回归模型,代码如下:

lr2 = LogisticRegression(C=100)
lr2.fit(X_train, y_train)

print("Training set score: {:.2f}".format(lr2.score(X_train, y_train)))
print("Testing set score: {:.2f}".format(lr2.score(X_test, y_test)))

结果如下:

Training set score: 0.79
Testing set score: 0.78

2.2.随机森林分类模型

默认参数随机森林分类模型,代码如下:

rfc = RandomForestClassifier()
rfc.fit(X_train, y_train)
print("Training set score: {:.2f}".format(rfc.score(X_train, y_train)))
print("Testing set score: {:.2f}".format(rfc.score(X_test, y_test)))

结果如下:

Training set score: 1.00
Testing set score: 0.82

调整参数随机森林分类模型,代码如下:

rfc2 = RandomForestClassifier(n_estimators=100, max_depth=5)
rfc2.fit(X_train, y_train)

print("Training set score: {:.2f}".format(rfc2.score(X_train, y_train)))
print("Testing set score: {:.2f}".format(rfc2.score(X_test, y_test)))```




<font color=#999AAA >结果如下:
```c
Training set score: 0.88
Testing set score: 0.81

2.3.创建逻辑回归模型

输出模型预测结果,代码如下:

# 预测标签
pred = lr.predict(X_train)
# 此时我们可以看到01的数组
print(pred[:10])
# 预测标签概率
pred_proba = lr.predict_proba(X_train)
#%%
print(pred_proba[:10])

结果如下:

[0 1 1 1 0 0 1 0 1 1]
[[0.60729586 0.39270414]
 [0.18238096 0.81761904]
 [0.42258598 0.57741402]
 [0.19331014 0.80668986]
 [0.8793502  0.1206498 ]
 [0.91331757 0.08668243]
 [0.13394337 0.86605663]
 [0.90560106 0.09439894]
 [0.05273676 0.94726324]
 [0.10973509 0.89026491]]

2.4.线性分类模型

线性分类模型分为判别式模型和生成式模型,把分类问题分成两个阶段:推断阶段和决策阶段,对于输入变量x,分类标记为Ck。
推断阶段和决策阶段具体表示为:
推断阶段:估计P(x,Ck)的联合概率分布,对P(x,Ck)归一化,求得后验概率P(Ck|x)。
决策阶段:对于新输入的x,可根据后验概率P(Ck|x)得到分类结果。
判别式模型和生成性模型的区别:
判别式模型:简单的学习一个函数,将输入x直接映射为决策,称该函数为判别式函数。
生成式模型:推断阶段确定后验概率分布,决策阶段输出分类结果,生成式模型包含两个阶段。

3.模型评估

3.1.背景简介

模型评估:是为了知道模型的泛化能力,交叉验证(cross-validation)是一种评估泛化性能的统计学方法,它比单次划分训练集和测试集的方法更加稳定、全面。在交叉验证中,数据被多次划分,并且需要训练多个模型。最常用的交叉验证是 k 折交叉验证(k-fold cross-validation),其中 k 是由用户指定的数字,通常取 5 或 10。
* 准确率(precision)度量的是被预测为正例的样本中有多少是真正的正例
* 召回率(recall)度量的是正类样本中有多少被预测为正类
* f-分数是准确率与召回率的调和平均;

3.2.交叉验证(10折交叉验证来评估)

代码如下:

# k折交叉验证分数
lr = LogisticRegression(C=100)
scores = cross_val_score(lr, X_train, y_train, cv=10)
print(scores)


# 平均交叉验证分数
print("Average cross-validation score: {:.2f}".format(scores.mean()))

结果如下:

[0.82089552 0.74626866 0.74626866 0.80597015 0.86567164 0.8358209
 0.76119403 0.82089552 0.74242424 0.74242424]
Average cross-validation score: 0.79


注:随着K值的不断升高,单一模型评估时的方差逐渐加大而偏差减小。但从总体模型角度来看,反而是偏差升高了而方差降低了。

3.2.混淆矩阵

二分类模型的时候会遇到拿训练好的模型来做预测时,所有标签都会被预测成一个类别,为了解决不平衡数据的问题,确定一个适合业务的截断点,评价二分类模型性能时引入了混淆矩阵的概念。

代码如下:

# 训练模型
lr = LogisticRegression(C=100)
lr.fit(X_train, y_train)

# 模型预测结果
pred = lr.predict(X_train)

# 混淆矩阵
confusion_matrix(y_train, pred)

# 精确率、召回率以及f1-score
print(classification_report(y_train, pred))

结果如下:

# 训练模型
          precision    recall  f1-score   support

           0       0.81      0.86      0.83       412
           1       0.75      0.68      0.71       256

    accuracy                           0.79       668
   macro avg       0.78      0.77      0.77       668
weighted avg       0.79      0.79      0.79       668


Process finished with exit code 0

3.3.ROC曲线

ROC曲线图是反映敏感性与特异性之间关系的曲线。横坐标X轴为 1 – 特异性,也称为假阳性率(误报率),X轴越接近零准确率越高;纵坐标Y轴称为敏感度,也称为真阳性率(敏感度),Y轴越大代表准确率越好。

根据曲线位置,把整个图划分成了两部分,曲线下方部分的面积被称为AUC(Area Under Curve),用来表示预测准确性,AUC值越高,也就是曲线下方面积越大,说明预测准确率越高。曲线越接近左上角(X越小,Y越大),预测准确率越高。

来源:添加链接描述

代码如下:

fpr, tpr, thresholds = roc_curve(y_test, lr.decision_function(X_test))
plt.plot(fpr, tpr, label="ROC Curve")
plt.xlabel("FPR")
plt.ylabel("TPR (recall)")
# 找到最接近于0的阈值
close_zero = np.argmin(np.abs(thresholds))
plt.plot(fpr[close_zero], tpr[close_zero], 'o', markersize=10, label="threshold zero", fillstyle="none", c='k', mew=2)
plt.legend(loc=4)
plt.show()

结果如下:
在这里插入图片描述

  数据结构与算法 最新文章
【力扣106】 从中序与后续遍历序列构造二叉
leetcode 322 零钱兑换
哈希的应用:海量数据处理
动态规划|最短Hamilton路径
华为机试_HJ41 称砝码【中等】【menset】【
【C与数据结构】——寒假提高每日练习Day1
基础算法——堆排序
2023王道数据结构线性表--单链表课后习题部
LeetCode 之 反转链表的一部分
【题解】lintcode必刷50题<有效的括号序列
上一篇文章      下一篇文章      查看所有文章
加:2021-07-23 11:03:36  更:2021-07-23 11:04:51 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/25 16:28:28-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码