| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> 【ACL Findings 2021】去噪相关 -> 正文阅读 |
|
[人工智能]【ACL Findings 2021】去噪相关 |
【ACL Findings 2021】《 Does Robustness Improve Fairness? Approaching Fairness with Word Substitution Robustness Methods for Text Classification》阅读笔记英文标题:Unsupervised Label Refinement Improves Dataless Text Classification 文章目录Abstract现存的来减少模型结果差异的去偏方法 主要集中在数据增强、在模型embedding上去偏或在训练过程中添加基于公平的优化目标。另外,经过认证的词替换鲁棒性方法被推广,以减少虚假特征和同义词替换对模型预测的影响。虽然二者的最终目标不同,但它们都是鼓励模型对当输入产生某些变化时做出相同的预测。在本文中,我们研究了被认证的词替换鲁棒性方法在提高多文本分类任务的概率等和机会等方面的效用。我们观察到,经过认证的鲁棒性方法提高了公平性,并且在训练中使用,对于鲁棒性和偏差缓解这两个方面都有改进。 一、Introduction随着自然语言处理(NLP)技术越来越多地应用于必要的现实应用中,如社交媒体、医疗保健、个人助理和法律,必须确保这些系统不会最终为用户创造不确定的结果,或为来自不同背景的客户提供区别的体验。这包括确保不同的群体的模型表现没有显著差异,如不同的性别或种族。一些研究证明了NLP系统中的社会偏差,并提出了各种方法来减轻这种偏差。这些方法包括创建平衡数据集,开发针对特定公平概念优化的方法,模型校准,减少表征偏差。在这项研究中,本文重点关注违禁词(敏感词)分类和维基百科上的职业分类,确保公平性意味着确保模型可以在所有例子中识别出对相似准确性的违禁词,而不会被在例子中受保护的例子干扰。过去的研究表明,违禁词分类模型会错误地将包含某些受保护属性的文本分类为违禁词。领先的社交媒体平台和互联网公司使用违禁词性分类模型来内容审核,因此在这种模型中存在偏见可能导致弱势的群体禁言。同样,对于职业分类,一个公平的模式应该正确地识别职业,无论这个人是否属于弱势群体。 本文作者利用基于GloVe的CNN模型和Bert探讨了鲁棒性方法对公平性的影响。比较了这些鲁棒性方法与流行的去偏方法的在公平性方面的影响。 作者发现,在性别和性取向维度的一些文本分类任务中,鲁棒性方法在公平指标上取得了良好的性能,超过了去偏的方法。此外,在公平性和鲁棒性的联合训练性能超过了鲁棒性和偏差缓解方法的单独训练。综合分析和可视化表明,鲁棒方法降低了性别标记的特征重要性。作者总结自己的贡献如下:
二.Notion作者首先定义了本文中所考虑的公平性的概念。然后,我们讨论了经过认证的鲁棒性方法,与如何应用它们来减少模型中的偏差。 2.1公平性概念在本文中,我们关注于衡量公平的两个概念——概率相等和机会相等,因为它们在NLP应用中常用于量化偏差。我们在第3节中描述了与这些概念相关的指标。我们给出了这些关于英语文本毒性和职业分类的应用例子。
个人理解: 当y的ground truth是1时,无论A是否受保护的属性,模型预测输出1或者0的情况概率相等。即A的变化不会对预测产生影响,真假阳率相等
个人理解: 当y ground truth为1时,无论A是否收到保护,模型预测输出y=1的概率都相等,即其真阳都相等(存疑,感觉这两个概念存在重叠,感觉是包含关系) 2.2 用认证过的鲁棒性方法来去偏差为不同的目的而设计的,认证后的鲁棒性方法提出多种方法来训练模型,成功保证词替换后的鲁棒性。通过将经过认证的鲁棒性方法适应公平性的应用,我们的目标是使模型对输入中存在的虚假保护属性信息不变,从而提高机会相等和概率相等。 形式上,如果任何句子x,由单词替换修改组成句子x‘,f(x)=f(x’)=y,那么模型f肯定是稳健的。在上下文的鲁棒性上,单词替换包括交换一个词与其同义词(通常使用修改后的单词嵌入来定义)。例如,如果x=“服务员和顾客谈论他们的问题”,x‘可能包括“女服务员和顾客谈论他们的不安”。在公平的背景下,我们认为“服务员”和“女服务员”或性别代词在违禁词和职业分类中具有相同的含义,并有相同的标签。 在本文中,我们使用了两种最近开发的认证鲁棒性方法,间隔边界传播(IBP)(Jia等,2019)和safer的(Ye等,2020)。给定每个单词的一组扰动,这两个模型确保了单词替换不会影响模型的预测。 三.公平性与鲁棒性的联系为了更好地理解文本分类中公平性和认证鲁棒性之间的联系,我们实证分析了用各种鲁棒性和公平性方法组合增强的模型,如下所示。
我们的目标是基于上述配置来回答以下研究问题。
特别是,为了回答最后一个问题,我们考虑将流行的公平性方法(去偏,实例权重,对抗)与IBP结合如下:
评估指标我们用三维方法来评估模型:
针对本文的范围和数据集的局限性,我们研究了Bios中的bias的二元性别,以及性别(男性、女性、变性人)和性取向(同性恋/异性恋、异性恋、异性恋、女同性恋、女同性恋、双性恋)的拼图敏感词分类。虽然我们承认有许多重要的属性,但我们将本研究的范围限制在文本分类数据集中存在的属性中。 四 Experiment
五. Conclusion作者提出了一个研究,研究了词替换鲁棒性方法对公平性的影响。作者在CNN和BERT中,添加IBP和safer等鲁棒性方法在训练比单独增加去偏的方法更能提高公平性指标。考虑到这些有作者鼓励未来使用鲁棒性方法的探索,不仅提高公平度量,而且优化公平性和鲁棒性,这是创建可信的NLP模型的两个重要方面。 未来的工作可能包括研究除性别和性取向以外的属性的鲁棒性和公平的影响,将我们的研究扩展到其他基于词替代的鲁棒性方法,以及探索更复杂的方法,在训练期间结合鲁棒性和缓解偏差的方法。我们还打算将研究扩展到研究隐私服务方法对鲁棒性和公平的影响 |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/17 20:35:13- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |