总的来说,对人工智能的问责表明我们可以信任这些人工智能技术以及谁 或者如果人工智能技术的任何部分表现低于预期,我们应该归咎于什么。这是关于责任声明。明确确定问责制并非易事 人工智能,一方面,由于缺乏可解释性,大多数基于人工智能的系统充当“黑匣子”另一方面,现实世界中基于 AI 的系统非常复杂,并且涉及 众多关键组件,包括输入数据、算法理论、实现细节、实时人工控制等。这些因素使问责制对于人工智能的确定进一步复杂化。尽管困难和复杂,但有必要保证人工智能的问责制。可审计性,它是指对算法理论和实现的一组原则性评价流程,是保证问责制的最重要方法之一。在人工智能的问责制和创新之间取得平衡非常重要。 总体目标是让人类以可靠和可靠的方式享受人工智能带来的好处和便利。 安全的保证。此外,我们不想给算法设计者带来沉重的负担或者对基于 AI 的系统的最终用户施加过多限制。我们讨论人工智能的问责制和可审计性。首先,我们介绍问责制的基本概念和其中的一些关键角色。
问责制
问责制。人工智能中的问责制有一个广泛的定义。一方面,问责 可以理解为人工智能的一个属性。从这个角度来看,问责制可以得到改善,如果在人工智能算法的可解释性方面可以取得突破。另一方面,问责 可以称为明确的责任分配,它侧重于谁应该承担对基于 AI 的系统的每个影响负责。这里我们主要讨论第二个概念。如上所述,给出明确的责任说明并非易事,因为基于 AI 的系统的操作涉及许多不同的方面,例如系统设计者、系统部署者和最终用户。任何一方的任何不当操作都可能导致系统 故障或潜在风险。此外,应考虑各种可能的情况,以确保公平分配责任。例如,人工智能系统在以下情况下造成伤害的情况正确工作与错误工作应该被区别对待。为了更好明确责任,明确职责分工人工智能系统功能的不同方。三个角色:决策者、开发者和用户。通过提炼这三个角色,我们提出五个角色,并介绍他们职责和义务如下: 系统设计师:系统设计师就是设计师人工智能系统。他们应该设计一个满足用户需求的人工智能系统,在最大程度上是透明和可解释的。他们有责任提供部署说明和用户指南,并释放潜在风险。决策者:决策者有权决定是否建立人工智能系统以及采用何种人工智能系统。决策者应充分了解候选人工智能系统的收益和风险,以及综合考虑所有相关要求和法规。系统部署者:系统部署者负责部署人工智能系统。他们应该遵循部署仔细说明并确保系统已正确部署。此外,他们是预计会为最终用户提供一些动手教程。系统审核员:系统审核员负责系统审计。他们被期望提供全面和客观的人工智能系统评估。最终用户:最终用户是人工智能系统的实际操作者。他们应该仔细遵循用户指南并向系统报告新出现的问题部署人员和系统设计人员及时。
可审计
可审计性。可审计性是确保问责制的最重要方法之一,它是指从各个方面进行的一组有原则的评估。在 IEEE 标准中,审计被定义为“对软件产品和过程是否符合适用的法规、标准、指南、计划、规范、和程序。”通常,审计可以分为以下两类:外部审计:外部审计是指由以下第三方进行的审计:独立于系统设计者和系统部署者。外部审计预计不会共享与内部员工的共同兴趣,并可能提供一些新颖的观点审核人工智能系统。因此,预计外部审计可以提供全面和客观的审计报告。但是,外部审计存在明显的局限性。一、外部审计通常无法访问 AI 系统中的所有重要内部数据,例如模型训练数据和模型实现细节,增加了审计难度。外部审计总是在部署 AI 系统后进行,因此可能成本高昂对系统进行调整,有时,系统可能已经造成伤害。
|