IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 数据结构与算法 -> 机器学习第四章:决策树 -> 正文阅读

[数据结构与算法]机器学习第四章:决策树

机器学习第四章:决策树

1.基本流程

决策树是基于树结构来进行决策的。
例如,我们要对“这是好瓜吗?”进行决策时,通常要进行一系列的判断或子决定:首先看“它是什么颜色?”,如果是青绿色,那么再看“它的根蒂是什么形态?”,如果是蜷缩,则…以此类推,最终得到最终决策:这是好瓜。

在这里插入图片描述

决策过程中提出的每个判定问题都是对某个属性的“测试”;

每个测试的结果要么导出最终结论,要么导出进一步的判定问题;

一般的,一棵决策树包含一个根结点若干个内部结点若干个叶节点;叶节点对应于决策结果,其他结点各对应一个属性测试;每个结点包括的样本集合根据属性测试的结果被划分到子节点中;根节点包含样本全集;从根节点到每个叶节点的路径对应了一个判定测试序列

决策树学习的目的是为了产生一棵泛化能力强(处理未见示例能力强的决策树),其基本流程遵循“分而治之”的策略。

决策树学习基本算法:

输入:训练集D={(x1,y1),(x2,y2),...,(xm,ym)}
      属性集A={a1,a2,...,ad}

过程:函数TreeGenerate(D,A)
生成结点node;
if D中样本全属于同一类别C then
	将node标记为C类叶节点;return
end if
if A=or D中样本在A上取值相同 then 
	将node标记为叶节点,其类别标记为D中样本数最多的类;return
end if
从A中选择最优划分属性a*;
for a*的每个值a*v do
	为node生成一个分支;
	令Dv表示D中在a*上取值为a*v的样本子集;
	if Dv为空 then
		将分支节点标记为叶节点,其类别标记为D中样本最多的类;return
	else
		以TreeGenerate(Dv,A\{a*})为分支节点
	end if
end for
输出:以node为根节点的一棵决策树

决策树的生成时一个递归过程
在算法中,有三种情形会导致递归返回:
(1)当前节点包含的样本全属于同一类别,无需划分;
(2)当前属性集为空/所有样本在所有属性上取值相同,无法划分;
(3)当前节点包含样本集合为空,不能划分。

2.划分选择

决策树学习的关键在于如何选择最优划分属性;
随着划分过程的不断进行,我们希望决策树的分支节点所包含的样本尽可能属于同一类别(结点的“纯度”越来越高)。

2.1 ID3决策树

信息熵”是度量样本集合纯度最常用的一种指标;
假设当前样本集合D中第k类样本所占比例为 p k ( k = 1 , 2 , . . . , ∣ Y ∣ ) p_{k}(k=1,2,...,|Y|) pk?(k=1,2,...,Y),则 信息熵定义为:
E n t ( D ) = ? ∑ i = 1 ∣ Y ∣ p k log ? 2 p k Ent\left( D\right) =-\sum ^{|Y|}_{i=1}p_{k}\log _{2}p_{k} Ent(D)=?i=1Y?pk?log2?pk?
E n t ( D ) Ent(D) Ent(D)的值越小,则D的纯度越高

离散属性a有V个可能的取值 a 1 , a 2 , . . . , a V {a^{1},a^{2},...,a^{V}} a1,a2,...,aV,若使用a来对样本D进行划分,则会产生V个分支节点,其中第v个分支节点包含了D中所有在属性a上取值为 a v a^{v} av的样本,记 D v D^{v} Dv;
可计算出用属性a对样本集D划分所获得的“信息增益”:
G a i n t ( D , a ) = E n t ( D ) ? ∑ v = 1 V ∣ D v ∣ ∣ D ∣ E n t ( D ) Gaint(D,a)=Ent(D)-\sum^V_{v=1}\dfrac{\left| D^{v}\right| }{\left| D\right| }Ent(D) Gaint(D,a)=Ent(D)?v=1V?DDv?Ent(D)
信息增益越大,则使用属性a来进行划分所获得的“纯度提升”越大;
因此,在多个属性中选择使信息增益最大的属性来进行划分。

2.2 C4.5决策树

由于信息增益准则对可取值数目较多的属性有所偏好,(例如“编号”:将n个样本逐一编号,将产生n个分支,每个分支的结点仅包含一个样本,这些分支点的纯度已经达到最大,但这样的决策树不具有泛化能力,不能对新样本进行有效预测);

为了减少信息增益的这种偏好带来的不利影响,C4.5决策树算法不直接使用信息增益,而使用“增益率”,其定义为:
G a i n t _ r a t i o ( D , a ) = G a i n t ( D , a ) I V ( a ) Gaint\_ratio(D,a)=\dfrac{Gaint(D,a)}{IV(a)} Gaint_ratio(D,a)=IV(a)Gaint(D,a)?
其中:
I V ( a ) = ? ∑ v = 1 V ∣ D v ∣ ∣ D ∣ log ? 2 ∣ D v ∣ ∣ D ∣ IV(a)=-\sum_{v=1}^{V}\dfrac{|D^{v}|}{|D|}\log_2\dfrac{|D^{v}|}{|D|} IV(a)=?v=1V?DDv?log2?DDv?
它为属性a的固有值;
属性a的可能取值数目越多(V越大),则 I V ( a ) IV(a) IV(a)的值通常会越大;

但是,增益率准则又对可取值数目较少的属性有所偏好,所以也不能直接选择增益率准则来划分;
C4.5是采用了一个启发式:先从候选划分属性中找出信息增益高于平均水平的属性,再从中选择出增益率最高的。

2.3 CART决策树

CART决策树使用了“基尼指数”;
数据集D的纯度可用基尼指数来度量:
G i n i ( D ) = ∑ k = 1 ∣ Y ∣ ∑ k ′ ≠ k p k p k ′ = 1 ? ∑ k = 1 ∣ Y ∣ p k 2 Gini(D)=\sum_{k=1}^{|Y|}\sum_{k^{'}\neq k}p_{k}p_{k^{'}}=1-\sum_{k=1}^{|Y|}p_{k}^{2} Gini(D)=k=1Y?k?=k?pk?pk?=1?k=1Y?pk2?
G i n i ( D ) Gini(D) Gini(D)反映了从数据集D中随机抽取两个样本,其类别标记不一致的概率;
所以 G i n i ( D ) Gini(D) Gini(D)越小,数据集D的纯度越高;

属性a的基尼指数定义:
G i n i _ i n d e x ( D , a ) = ∑ v = 1 V ∣ D v ∣ ∣ D ∣ G i n i ( D v ) Gini\_index(D,a)=\sum_{v=1}^{V} \dfrac{|D^{v}|}{|D|}Gini(D^{v}) Gini_index(D,a)=v=1V?DDv?Gini(Dv)
所以,选择那个使得划分后基尼指数最小的属性作为最优划分属性。

  数据结构与算法 最新文章
【力扣106】 从中序与后续遍历序列构造二叉
leetcode 322 零钱兑换
哈希的应用:海量数据处理
动态规划|最短Hamilton路径
华为机试_HJ41 称砝码【中等】【menset】【
【C与数据结构】——寒假提高每日练习Day1
基础算法——堆排序
2023王道数据结构线性表--单链表课后习题部
LeetCode 之 反转链表的一部分
【题解】lintcode必刷50题<有效的括号序列
上一篇文章      下一篇文章      查看所有文章
加:2021-08-31 15:42:15  更:2021-08-31 15:44:18 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/26 0:40:27-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码