近年来,人工智能(AI)系统的普遍性和复杂性日益增加,引起了人们对其可信度,公平和道德意义的重大关注。随着AI技术继续融入社会的各个方面,从医疗保健到融资,并给出了诸如欧盟AI AI中对高风险法案或美国科罗拉多州法律的新监管要求,并以对偏见缓解偏见的新监管要求,对强大的审计程序的需求变得至关重要。 实际上,在“ AI时代”中引用Henry Kissinger,Eric Schmidt和Daniel Huttenlocher [Kissinger等。 2021]:“为AI制定专业认证,合规性监控和监督计划 - 以及他们执行的审计专业知识,这是我们时代至关重要的社会项目。 强大的审计程序是必要的,不仅要确保遵守监管框架,还需要促进公众信任和接受这些先进技术,这反过来又是提高其快速市场渗透和吸收的至关重要的成分。 这种审核程序的中心是透明度和可检查性的概念,它们是评估AI系统的基本支柱。 AI系统由于其非确定性和黑匣子性质,其产出的可变性以及其基础模型的复杂性而提出了审核的独特挑战。 传统的审计方法通常很难适应AI的动态和概率方面,系统可以随着时间的流逝而学习和发展,从而导致无法预测的行为。对强大的审计程序的需求变得至关重要。实际上,在“ AI时代”中引用Henry Kissinger,Eric Schmidt和Daniel Huttenlocher [Kissinger等。2021]:“为AI制定专业认证,合规性监控和监督计划 - 以及他们执行的审计专业知识,这是我们时代至关重要的社会项目。强大的审计程序是必要的,不仅要确保遵守监管框架,还需要促进公众信任和接受这些先进技术,这反过来又是提高其快速市场渗透和吸收的至关重要的成分。这种审核程序的中心是透明度和可检查性的概念,它们是评估AI系统的基本支柱。AI系统由于其非确定性和黑匣子性质,其产出的可变性以及其基础模型的复杂性而提出了审核的独特挑战。传统的审计方法通常很难适应AI的动态和概率方面,系统可以随着时间的流逝而学习和发展,从而导致无法预测的行为。这使得为AI至关重要的AI创建了强大的审计框架,这不仅是为了解决AI的技术风险,还可以处理与数据隐私,偏见,道德和公平性有关的问题。
主要关键词