| |
|
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
| -> 人工智能 -> 【李宏毅机器学习】Explainable AI -> 正文阅读 |
|
|
[人工智能]【李宏毅机器学习】Explainable AI |
note:
一、可解释机器学习像在一些医疗诊断、决策任务中,AI模型更需要可解释性,但是explanable AI不完全是理解ML如何工作. 二、Local Explanation(局部可解释性)2.1 基本思想input的多个component中(比如图片中的一个pixel像素就是一个component;passage中的一个word单词就是一个component),哪个component在识别图片中起更关键的作用。在Local explanation中一般通过对component进行修改or移除等操作,对比影响的效果进行判断哪个component作用更大。 2.2 移除组成要素(遮挡法)如下图,用灰色方块对每个部分进行遮挡,然后进行预测(效果即下方的图片,蓝色区域表明该区域对识别结果作用更大)。 2.3 改变组成要素(基于Gradient)saliency map显著图:每个值对目标值求偏微分,导数越大的区域越明亮,用这种gradient方式(loss变化量/偏置量)判断哪些feature更重要。 2.4 Limitation of Gradient based Approaches(基于梯度方式的限制)2.3中,大象鼻子不断长,长到一定程度肯定会停止生长,如果继续用2.3这种导数求法就是梯度为0(梯度饱和),但是不代表该feature不重要。 2.5 Attack Interpretation三、Global Explanation(全局可解释性)从dl model中拿出某一层的输出,通过降维至二维平面,比如下图,输出一个语音信号,从第8层中提取出输出再降维到二维平面,可看到句子相同但读者不同的向量会聚类在一起。
3.1 反向寻找理想输入CNN的一个filter卷积核对input picture处理得到feature map。可以反向寻找最佳input,如下左下方的图片就过拟合了。 3.2 添加正则化项
3.3 利用image generator 进行正则化
四、用模型解释模型4.1 Using linear model用一个解释性强的model“模仿”难解释的model(在训练时输入相同的样本,让模仿模型的输出接近黑色模型,即解释性差的model的输出)。但是线性模型过于简单,新提出了LIME。
4.2 Local Interpretable Model-Agnostic Explanations (LIME)使用Linear Model拟合Neural Network
Reference[1] 李宏毅21版视频地址:https://www.bilibili.com/video/BV1JA411c7VT |
|
|
|
|
| 上一篇文章 下一篇文章 查看所有文章 |
|
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
| 360图书馆 购物 三丰科技 阅读网 日历 万年历 2025年11日历 | -2025/11/2 8:46:05- |
|
| 网站联系: qq:121756557 email:121756557@qq.com IT数码 |