IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 随机森林算法与集成学习 -> 正文阅读

[人工智能]随机森林算法与集成学习

随机森林算法与集成学习 – 潘登同学的Machine Learning笔记

书接上文,经典决策树CART、ID3与C4.5,我们构建了一颗树来解决分类、拟合问题,但是一棵树的缺点也很明显,就是容易过拟合;再说了,就算一棵树再强大,也不可能强过好几颗吧,正所谓 三个诸葛亮顶个臭皮匠嘛… 而随机森林就是这样一个有很多颗小树组成的一片森林,核心思路就是让每颗小树投票解决;

聚合模型

同权重

G ( X ) = s i g n ( ∑ t = 1 T 1 ? g t ( x ) ) G(X) = sign(\sum_{t=1}^T 1*g_t(x)) G(X)=sign(t=1T?1?gt?(x))

变量解释:

  • G ( X ) G(X) G(X)表示最终结果, s i g n sign sign是一个判断符号函数,最终判断为0或1
  • g t ( x ) g_t(x) gt?(x)表示每颗小树给出的预测结果
  • ∑ \sum 后面跟的1表示每颗小树的权重

不同权重

G ( X ) = s i g n ( ∑ t = 1 T α t ? g t ( x ) ) G(X) = sign(\sum_{t=1}^T \alpha_t*g_t(x)) G(X)=sign(t=1T?αt??gt?(x))

其中, α t \alpha_t αt?则表示第t颗小树的权重,之所以这样设置,目的是更相信某些树,可能有预想不到的结果,因为有时在村里面投票时,德高望重的村长可能能投两票;

如何生成 g ( x ) g(x) g(x)

因为聚合模型需要很多颗不同的小树来构成,而现在我们要解决的问题就是,如何在同一组数据下生成不同的小树?

  • 用同样的数据,但用不同的超参
  • 同样的超参,不同样本(同一个data,但不给全部样本,给一部分)
  • 同样的超参,不同属性(同一个data,但有的小树,只给一部分属性)
  • 同样的超参,同样的样本和属性,但是数据权重不同

对于决策树算法来说, g ( t ) g(t) g(t)的构成也有两种思路:

Bagging(一袋子模型)

对训练集进行抽样,将抽样的结果用于训练集 g ( x ) g(x) g(x),可以并行、独立训练;如:随机森林。

Boosting(提升模型)

利用训练集训练出的模型,根据这次训练的预测结果,调整训练集,然后利用调整后的训练集训练下一个模型,串行;如:adaboost、GBDT、Xgbosst。

注意: Bagging与Boosting是一种集成学习的思路,可以用在机器学习的任何算法上,例如:

预测值1
预测值2
预测值3
Database
SVM
LR
DT
LR
最终预测值

随机森林

而随机森林就是聚合模型中的同权重那一类(Uniform Blending Voting for Classification)

思想:Bagging思想 + 决策树作为base model(每颗小树都是 fully gorwn CART) + Uniform Blending Voting

随机森林算法

  • 还记得前面的sign吗?

在随机森林中,sign就理解为少数服从多数,假如小树有100个,最终小树分别投票的结果是正例:负例 = 60:40,那么最终sign后的结果就是1;

  • 特点:
    • 高效并行
    • 继承决策树的优点
    • 减少决策树的过拟合问题

OOB问题(Out of bag data)

因为在构建小树的时候是随机抽样的,那么就会有没有被抽出的数据

数据样本数为m,一条数据m轮没有被抽到的概率为
( 1 ? 1 m ) m (1-\frac{1}{m})^m (1?m1?)m

当m趋近于无穷时
lim ? m → ∞ ( 1 ? 1 m ) m = 1 e \lim_{m\to\infty}(1-\frac{1}{m})^m = \frac{1}{e} mlim?(1?m1?)m=e1?

所以在大样本,很多棵小树的随机森林里,总会有 1 e \frac{1}{e} e1?的样本是不会纳入训练集中的,这些数据可以作为测试集;

所以使用随机森林时,不需要对数据集进行划分,随机森林的OOB可以自我验证;

实战鸢尾花数据集

多种模型 + bagging

比较逻辑回归、随机森林、SVM、与将前面三个模型bagging起来的模型

from sklearn.ensemble import RandomForestClassifier
from sklearn.ensemble import VotingClassifier
from sklearn.linear_model import LogisticRegression
from sklearn.svm import SVC
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.ensemble import BaggingClassifier
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score

#VotingClassifier
log_clf = LogisticRegression()
rnd_clf = RandomForestClassifier()
svm_clf = SVC()

voting_clf = VotingClassifier(
    estimators=[('lr', log_clf), ('rf', rnd_clf), ('svc', svm_clf)],
    voting='hard'  #hard表示投票 除此之外还有soft 是把对分类最确定的(概率最大)的那个分类器的结果当做最终结果
)

iris = load_iris()
X = iris.data[:, :2]  # 花萼长度和宽度
y = iris.target
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=2)

# voting_clf.fit(X, y)


for clf in (log_clf, rnd_clf, svm_clf, voting_clf):
    clf.fit(X_train, y_train)
    y_pred = clf.predict(X_test)
    print(clf.__class__.__name__,'%.2f%%' %accuracy_score(y_test, y_pred))
  • 结果如下:

显示的是错误率

集成学习4个模型结果

随机森林OOB

上面采用的还是划分测试集与训练集的方式,而随机森林是不需要划分的,自己验证即可

#%%BaggingClassifier
iris = load_iris()
X = iris.data[:, :2]  # 花萼长度和宽度
y = iris.target


bag_clf = BaggingClassifier(
    DecisionTreeClassifier(), n_estimators=10,
    max_samples=1.0, bootstrap=True, n_jobs=1
)
#划分训练集和测试集的准确率
bag_clf.fit(X_train, y_train)
y_pred = bag_clf.predict(X_test)
print(y_pred)
y_pred_proba = bag_clf.predict_proba(X_test)
print(y_pred_proba)
print("bagging", accuracy_score(y_test, y_pred)) #查看正确率


# oob (利用随机森林本身的特点来查看正确率)
bag_clf = BaggingClassifier(
    DecisionTreeClassifier(), n_estimators=500,   #n_estimators表示500科小树
    bootstrap=True, n_jobs=1, oob_score=True      #bootstrap有放回抽样
)
bag_clf.fit(X, y)
print('oob',bag_clf.oob_score_)
# y_pred = bag_clf.predict(X_test)
# print(accuracy_score(y_test, y_pred))

print(bag_clf.oob_decision_function_)  #与上面y_pred_proba作用相似,只不过这里不需要测试集
  • 分别采用测试集与OOB的验证结果

前者是采用测试集与训练集划分的结果,后者是OOB的方式,两者的差别不大

随机森林

随机森林算法与集成学习, 继续下一章吧!pd的Machine Learning

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-12-06 15:15:13  更:2021-12-06 15:16:20 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/27 2:15:33-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码