| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> Paper Reading||Improving Low-Precision Network Quantization via Bin Regularization -> 正文阅读 |
|
[人工智能]Paper Reading||Improving Low-Precision Network Quantization via Bin Regularization |
论文(ICCV 2021):https://openaccess.thecvf.com/content/ICCV2021/papers/Han_Improving_Low-Precision_Network_Quantization_via_Bin_Regularization_ICCV_2021_paper.pdf BR 概要
1 Motivation
? Motivation 似乎不是那么至关重要,没有对 Motivation 做进一步分析和展开。作者提出了一种新的正则化算法来改进低精度网络量化,假设如果每个Quantization Bin 中的所有浮点值都足够接近目标量化电平值,则量化误差将接近零。当将全精度网络量化为 n n n-bit 网络时,每个卷积层的所有浮点元素将被离散化。Fig 1 (a) 展示了 Bin Regularization 的基本思想。
2 Methodology2.1 Quantization Baseline? 作者将 LSQ 算法作为自己实验的 Baseline。设要量化的数据为 v v v, LSQ 的量化过程可以定义为:
2.2 Bin Regulation? 在量化时,原数据会按照区间划分为 2 b 2^{b} 2b 组 Quantization Bins,每个 Bin 内的数据会被量化为一个对应的离散值。如果每个 Bin 内的全精度的原值刚好就是那个对应得离散值的话,量化误差就可以为0。从数据分布来看,作者假设,一个好的量化器会激励每个 Quantization Bin 内的值分布尽量成为一个高斯分布,而这个高斯分布的 Mean 会逼近对应的离散值、 Variance 会逼近 0——分布会逼近单位脉冲函数。 ? 为了达到上述效果,作者设定了两个约束:
? 那么 Bin Regularization 就可以表示成:
2.3 Optimization Strategy? 直观地说,总的目标可以设为 Cross Entropy Loss 和 Bin Regularization Loss 二者的线性组合,然后再做最小化:
3 Experiments? 实验围绕 ImageNet 分类任务展开,关注多个流行的轻量级网络架构上更具挑战性的低精度模型量化问题。作者将 LSQ 作为实验的 Baseline 方法。 3.1 Experimental Setting
3.2 Comparisons to State-of-the-Art Quantization Methods? 与 SOTA 方法对比如 Table 1、2、3 所示。 3.3 Comparisons to Different Weight Regularization Methods? 如 Table 4、5 所示。 3.4 Ablation StudyOptimization Strategy? 作者测试了不同的网络量化优化策略:
? 最后结果如 Table 6 所示。 Parameter Analysis? 对于超参数 λ \lambda λ,作者也进行了一定的调优,如 Table 7 所示。最后选择 λ = 0.5 \lambda=0.5 λ=0.5。 3.5 Analysis of Quantization Error? 虽然作者的方法没有显式地优化模型整体的量化误差,但在正则化每个 Bin 后量化误差仍然有效下降。Table 8 展示了 作者方法和均方差量化误差(MSE-QE)之间的关系。 3.6 Visualization of Bin Distribution? 可视化图如 Fig 2、3、4 所示。
3.7 Training Convergence? 如 Fig 5 所示。 3.8 Hardware-Friendly Implementation? 现有的大多数量化方法采用了一些松弛条件,以保持量化网络的高准确度(如第一层和最后一层均不采取量化,或均量化到 8-bit)。作者按照业界的一些规范,再以 TQT 作为 Baseline,在其基础上做实验。不仅使用相同的低位宽度对第一层和最后一层进行量化,还对 Element-wise 加法模块的输入和输出进行量化,同时将 Bias 量化为 8-bit,在训练时就将 BN 层合并到前一卷积层中去。实验结果如 Table 9 所示。 个人思考
|
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/27 3:43:08- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |