• 就“算法歧视”定义(CRS 第 6-1-1701(1) 节)拟议修改达成共识,可能取决于涉及 CRS 第 6-1-1702(1) 节和 CRS 第 6-1-1703(1) 节的棘手问题有多么棘手,其中行业和公共利益团体对开发者和部署者在防止算法歧视方面应承担哪些义务以及如何执行这些义务存在严重分歧。 • 如果能就影响评估的固定间隔达成共识,那么对“故意和实质性修改”定义的拟议修改可能会变得无关紧要。 • 利益相关者是否愿意接受对公司必须向司法部长 (AG) 提供信息的条款的拟议修改,可能取决于是否做出其他修改,包括法律的直接面向消费者的披露和解释条款,并应与 AG 办公室协商考虑。 • 对部署者风险管理计划要求的拟议变更可能会与对部署者影响评估义务的拟议变更一起考虑。
那是通知的正面。然后在另一侧,我们有政策。,我们如何实际实施这些系统?由于部署者,特别是在医疗保健领域,医疗保健提供者中,我们必须确保政策始终非常清晰,提前写出来。部署者必须执行风险管理政策和计划来管理这些高风险系统的这些部署,就像Erin一样,他们在与供应商或开发人员中所说的那样,他们将不得不披露任何种类的风险或已知的算法歧视迭代,并且必须审查政策,并且必须审查其违反各种指导和风险管理框架。,但最终,只要该部署使用符合这些符合本科罗拉多州法规的要求的策略。
为了研究智能数字工具和新的职业安全与健康监测系统的实际实施情况,以改善工人的安全和健康 4 ,欧盟职业安全与健康管理局开展了大量案例研究。这组案例研究包括从提供商/开发者层面审视的智能数字系统案例,也包括公司部署/实施此类系统的案例。根据《人工智能法案》,提供商是开发人工智能系统并将其投放市场的个人或实体。部署者是使用人工智能系统的个人或实体。本报告将使用“开发者”和“部署者”角色,因为本报告基于使用这些术语的案例研究。5 因此,案例研究调查了与开发阶段和实施阶段相关的方面。所有案例研究都考虑了包括工人参与在内的职业安全与健康方面,同时考虑到案例研究的类型。此外,所有案例研究都研究了安全有效实施的可能驱动因素、障碍和成功因素。
第一读者众议院第1331号法案(委托Qi)经济事务消费者保护 - 人工智能该法案为人工智能(AI)系统的开发商和部署建立了许多标准和要求。该法案的要求包括对AI系统开发人员的披露要求,以及对部署者的风险管理政策和影响评估。AI系统的部署者还必须向公众披露某些披露,包括他们如何管理任何已知且可预见的风险。该法案还建立了有关语音和相似克隆的某些协议的要求。违反该法案的某些规定是不公平,虐待或欺骗性的贸易实践,通常受到MCPA的民事和刑事处罚条款的约束。但是,违规行为不遵守MCPA的损害赔偿,该法案并不能阻止消费者采取法律提供的任何其他补救措施。
该法案将根据白宫最近发行的AI权利法案的蓝图建立知情,有意识地部署ADT的要求。广泛地说,该法案只规定了一个政策结果:它禁止根据根据国家民权法保护的特征(例如种族,年龄,国籍,国家起源,残疾,英语能力有限,英语能力和性别)(包括怀孕,育儿,育儿,以及相关条件;性别认同;性别识别和性别方面的状态; explysex; evalsex状态;)。大部分法案都致力于确保ADT开发人员和部署者在将ADT释放到世界上之前彻底考虑ADT的设计,测试和功能。这似乎是合理的策略,因为开发人员和部署者是对与之合作的系统具有最大知识的实体。
《人工智能法案》对六类人员规定了义务:提供者、部署者、进口商、分销商、产品制造商和指定代理商。 “操作员”一词用于指代所有这些。永远都会有人工智能系统和通用人工智能模型的提供商。也可能存在其他运营商,这取决于人工智能系统和通用人工智能模型的来源和部署方式。大多数运营商的定义是参考《人工智能法案》附件一中引用的欧盟产品立法改编的三个关键术语:“提供”、“投放市场”和“投入服务”。
除了高风险功能外,在Microsoft开发和部署AI技术时,还要控制更广泛的风险。在微软的综合AI治理计划下,Frontier模型以及其他模型和AI系统都受到相关评估的约束,然后进行缓解以使总体风险达到适当的水平。有关模型或系统性能,负责使用以及建议的系统级评估的信息与下游参与者共享,将模型集成到系统中,包括Microsoft Building Mucdure Models的外部系统开发人员,部署者,部署者以及团队。适当的信息共享对于促进缓解更广泛的风险很重要,其中许多风险是由用例和部署环境以及各个司法管辖区变化的法律和规范的大大塑造的。因此,不同的风险概况可能会为不同的缓解策略提供信息,但微软的总体映射,测量和缓解风险方法(包括通过强大的评估和测量)始终适用于我们的AI技术。我们为评估和减轻与该框架所追踪功能相关的风险的努力受益于该广泛应用治理计划,该计划将不断改进。该框架的其余部分更具体地解决了与框架跟踪功能有关的风险的评估和缓解。
《人工智能法案》以基于风险的方法为基础,鼓励开发值得信赖的技术并促进数字化增长。该法案旨在将明确界定的高风险用途和场景纳入其范围,并根据人工智能工具的预期用途,保证管理这些风险的具体义务。包括通用人工智能和工具(从定义上讲,它们缺乏预期用途,可以应用于多种通常低风险的用例)将直接违背《人工智能法案》的主要目标和结构。与此同时,通过确保将合规义务分配给最适合缓解挑战和担忧的实体,并鼓励人工智能价值链上的协调,人工智能开发者和部署者之间的责任分配将更加清晰,这将使《人工智能法案》受益匪浅。