该机构表示,ERR 还有助于确保其投资决策的可问责性和透明度。2008 年,美国政府问责局 (GAO) 发现了 MCC 制定 ERR 的程序中存在的挑战,例如方法不一致、缺乏文件记录、ERR 计算中的人为错误以及对 ERR 分析的持续审查不足,并建议制定新的指导方针并改进现有指导方针。2 为了响应 GAO 的报告和建议,MCC 修订或建立了制定和审查 ERR 的指导方针、流程和程序。其中包括同行评审流程,经济学家将审查他们未参与的 ERR 分析方法和结果。MCC 表示,它使用同行评审流程来提高 ERR 分析的质量和一致性,并确保结果客观可靠。
云的成熟和普及导致了开源软件 (OSS) 的激增。反过来,管理 OSS 代码质量对于确保云的可持续增长至关重要。在这方面,由于大型开放代码库的随时可用,AI 建模在源代码理解任务中越来越受欢迎。然而,我们一直在观察这些黑匣子的某些特性,促使人们呼吁在取代传统的代码分析之前验证它们的可靠性。在这项工作中,我们重点介绍了影响 AI-for-code 的不同可靠性问题,并将其组织成 AI 管道的三个阶段——数据收集、模型训练和预测分析。我们强调研究界需要齐心协力,以确保 AI-for-code 的可信度、可问责性和可追溯性。对于每个阶段,我们讨论了源代码和软件工程设置为提高 AI 可靠性提供的独特机会。
2.人工智能治理的经济可能会导致监控国家。确保透明度和问责制对于避免这种结果至关重要。解决这一问题的潜在措施包括:a) 开源:将人工智能算法开源可以接受公众监督,并防止人工智能本身不受制约。但是,我们如何平衡开放代码访问的需求与人类渗透或入侵旨在免受不当影响的系统的威胁?b) 公众意见:允许公民参与有关数据隐私和监控政策的决策可以帮助确保人工智能的数据收集保持透明和可问责。c) 监督委员会:创建由专家、公民和行业代表等不同利益相关者组成的委员会,可以帮助监督人工智能的决策并保持权力平衡。
采用人工智能的动力隐藏了一个关键事实:更好的信息处理虽然提高了效率,但也带来了更复杂的风险。人工智能增强了金融系统的信息处理、数据分析、模式识别和预测能力。与此同时,它也加剧了数据隐私担忧、算法歧视、市场歧视和网络干扰的风险。本政策摘要研究了人工智能带来的主要机遇和挑战,并提出了在不同场景下调整监管方法以适应其变革效应的框架。该框架建立在人工智能治理的基本原则之上,包括透明度、可问责性、公平性、安全性和人为监督。此外,它强调了互联网协调对于实现全球金融体系对人工智能的一致有效监督的关键性。
UCAI 2020 研讨会将讨论人机交互 (HCI) 和人工智能 (AI) 交叉领域的主题,旨在加强人工智能系统设计中的以用户为中心的方面。一个主要主题在于通过使智能和自适应系统更加透明、可解释和可理解来赋予用户权力。从用户和活动中心的角度设计与智能系统的交互是除了检查最终系统输出之外吸引用户的另一个基本问题,从而使基于人工智能的系统在其众多应用环境之一中更具交互性、有效性、可理解性和可问责性。抵消数据和算法中的潜在偏见是提高可信度和公平性的另一个重要目标。在评估基于人工智能的系统方面,在可接受性和用户体验、问责制和道德影响方面仍然存在方法论上的差距。
摘要:在本综述中,算法偏见和公平性的概念得到了定性和数学上的定义。给出了算法开发中出现意外偏见或不公平时可能出现的问题的说明性示例。讨论了可解释性、可问责性和透明度对于人工智能算法开发和临床部署的重要性。这些都基于“primum no nocere”(首先,不伤害)的概念。提供了减轻任务定义、数据收集、模型定义、训练、测试、部署和反馈中的不公平和偏见的步骤。将讨论如何实施公平标准,最大限度地提高利益,最大限度地减少对神经放射学患者的不公平和伤害,包括为神经放射学家提供建议,因为人工智能算法在神经放射学实践中获得认可并纳入常规临床工作流程。
摘要:本综述从定性和数学角度定义了算法偏见和公平性的概念。给出了算法开发中出现意外偏见或不公平时可能出现的问题的说明性示例。讨论了可解释性、可问责性和透明度对于人工智能算法开发和临床部署的重要性。这些都基于“primum no nocere”(首先,不伤害)的概念。提供了减轻任务定义、数据收集、模型定义、训练、测试、部署和反馈中的不公平和偏见的步骤。我们将讨论如何实施公平标准,以最大限度地提高效益并最大限度地减少对神经放射学患者的不公平和伤害,包括当人工智能算法被神经放射学实践接受并纳入常规临床工作流程时,神经放射学家应考虑的建议。
影响评估过程不仅对公司有利,而且对利益相关者也有利,包括政府、非营利组织 (NPO) 和整个社区。《企业社会责任法》修正案于 2021 年 1 月生效,要求公司评估其企业社会责任计划的影响(对于支出为 1 千万印度卢比或以上的企业社会责任项目/过去三年平均企业社会责任义务至少为 1 亿印度卢比的公司),这些计划必须在进行影响研究前至少一年完成。这导致了企业社会责任计划采取了更加以数据为导向的方法,并帮助公司关注结果而不仅仅是产出。影响评估提供了一种透明且可问责的机制来评估企业社会责任项目的影响,并有助于在企业界建立信任和信誉。
摘要 ÐAI 扩展到我们的生活和生计中,这清楚地表明我们必须开发符合道德和值得信赖的 AI。我们提出了 Wasabi,这是一种基于众所周知的信任到可信度的能力-仁慈-诚信模型的可信 AI 的新概念模型。当前可信 AI 的方法提出了一系列理想属性,包括公平性、可解释性和可问责性。然而,这些属性不足以涵盖能力、仁慈和诚信的标准,即使满足这些属性,由此产生的不完整性也会损害可信度。我们将判例法作为可信度概念的证据。法律案件代表了律师激烈争论并由陪审团仔细审议的边界条件。因此,它们捕捉到了浅显分析中缺少的重要细节和权衡。我们从每个案例中找出了人工智能的经验教训。最后我们给出了未来调查的方向。
数据出处是描述数据来源和处理的记录,它为基于人工智能 (AI) 的系统在指导人类决策方面发挥的日益重要的作用带来了新的希望。为了避免充满偏见的人工智能系统可能导致的灾难性后果,负责任的人工智能建立在四个重要特征之上:公平、可问责、透明和可解释性。为了促进对支持负责任人工智能的数据出处的进一步研究,本研究概述了现有的偏见,并讨论了可能的数据出处实施方法以减轻这些偏见。我们首先回顾了源于数据来源和预处理的偏见。然后,我们讨论了当前的实践状态、它所带来的挑战以及相应的解决建议。我们提出了一个总结,重点介绍了我们的建议如何帮助建立数据来源,从而减轻源于数据来源和预处理的偏见,以实现负责任的基于人工智能的系统。最后,我们提出了一个研究议程,建议进一步的研究途径。