问题尽管可以通过计算机视觉区域的视觉变压器取得进展,但这些模型存在决定性的问题:它们缺乏透明度。这导致原因,尤其是在模型出乎意料的情况下找到原因。,并开发了消融研究的方法来解决它们。
摘要:通过算法决策系统在各个领域的传播,人们对它们的不透明和潜在的道德后果的关注得到了提高。通过促进可解释的机器学习模型的使用,本研究解决了这些系统中开放性和道德责任的关键要求。可解释的模型提供了对决策的制定方式的透明且可理解的描述,而不是复杂的黑盒算法。用户和利益相关者需要这种开放性,以便理解,验证和负责这些算法的决定。此外,可解释性通过使检测和减少偏见更容易促进算法结果中的公平性。在本文中,我们概述了算法不透明度带来的困难,强调了在各种环境中解决这些困难的关键,包括涉及医疗保健,银行业,刑事司法等的困难。从线性模型到基于规则的系统再到替代模型,我们对可解释的机器学习技术进行了彻底的分析,突出了它们的好处和缺点。我们建议,将可解释的模型纳入算法的设计和使用可能会导致AI在社会中更负责任和道德应用,最终使人们和社区受益,同时降低与不透明决策过程相关的风险。
Inditex集团的加利福尼亚州供应链法和熊(ITX USA,LLC)的一部分,完全致力于尊重,促进和保护其整个价值链中的人权,这是我们业务模型的主要支柱之一。根据《 2010年供应链法》(SB657)的《加利福尼亚州透明度》(SB657)提出的这一说法,涉及Inditex集团依赖于预防和减轻现代奴隶制和人口贩运风险的措施。该声明构成了“ Inditex集团的现代奴隶制和人口贩运声明和供应链中的人口贩运声明和透明度” 2019财政年度,于2020年1月31日结束,并指的是工业disedisnitia textil,s.a.下面,请找到Inditex计划和计划的摘要。要查看完整的声明,请单击此处以获取Inditex,必须依靠一个对社会负责的供应链,在该供应链中,尊重其中每个人的基本人工和劳动权。在这方面,工作是基于2019年“ 2019 - 2022年中心的工人”启动的新战略。该战略围绕理解和满足工人,他们的家庭及其居住的社区的需求的前提,出于促进体面的工作和可持续生产环境的目的。2019年,Inditex的供应链由44个市场中的1,985个非排他性供应商组成,在8,155家工厂工作。验证和供应商审核Inditex对其供应链中的奴隶制,人口贩运和任何形式的强迫劳动都应用了零容忍政策。为了确保合规性,Inditex将其所有供应商和工厂对人类和劳工权利的不同程序和评估,包括与强迫劳动或任何类型的现代奴隶制有关的所有方面。首先验证符合制造商和供应商的行为准则的水平,甚至在供应商开始与Inditex的关系之前就会发生。当供应商决定提出新工厂时,会进行初步评估,称为预评估,以验证没有侵犯其工人人权的风险。在2019年,Inditex进行了2,789次预评估审核。
计划符合经济,环境和社会层面中的可持续发展原则,以及供应商行为守则 - BJC选择的潜在供应商通过各种方法,包括培训,现场审核以评估内部流程,以及考虑改进的行动,以参与供应商开发计划。为此,BJC首先与中小型企业合作,这些中小型企业提供新鲜食品并为大型C生产众议院品牌。开发主题涵盖了ESG的三个方面,并与供应商行为准则有关,包括经济(例如,产品质量,供应商管理),环境(例如自然资源管理,废物管理,气候相关管理)和社会(例如员工福祉,职业健康与安全,社区关系)。
摘要 人工智能(AI)在公共事务决策中的应用日益广泛,这引发了关于自学技术的好处和潜在危害的激烈辩论,从希望做出充分知情和客观的决策到担心人类的毁灭。为了防止负面结果并实现负责任的制度,许多人认为我们需要打开人工智能决策的“黑匣子”,使其更加透明。虽然这场辩论主要集中在透明度如何确保高质量、公平和可靠的决策,但在公众如何将人工智能决策视为合法和值得接受的问题上,透明度的作用却很少受到关注。由于依赖强制不仅在规范上存在问题,而且成本高昂且效率低下,因此感知合法性是民主制度的基础。本文讨论了人工智能决策的透明度如何影响公众对决策和决策者合法性的看法,并提出了一个分析这些问题的框架。我们认为,有限形式的透明度,侧重于为决策提供依据,有可能为感知的合法性提供足够的依据,而不会产生完全透明带来的危害。
人工智能 (AI) 是一个广义术语,它描述了为实现人类定义的目标而编程的算法系统。这些系统的输出可以包括图像、预测、建议或决策等内容,它们可用于支持或取代人类的决策和活动。许多这样的系统被认为是黑匣子,其中模型的内部结构要么不为人所知,要么无法被人类解释。在这种情况下,可以说该模型缺乏透明度。人工智能透明度——负责任数字创新实验室的核心支柱之一——是一个涵盖可解释人工智能 (XAI) 和可解释性等概念的总称,是人工智能伦理领域(以及其他相关领域,如可信赖的人工智能和负责任的人工智能)的一个关键关注点。广义上讲,它包括三个层次:
算法系统不透明的原因有很多。根据 Burrell (2016) 的说法,不透明可能是故意的,为了保护知识产权、贸易或国家机密,为了遵守法律标准,或者为了避免以某种方式玩弄系统或侵犯其他权利,例如隐私权。它们也可能因为技术文盲或缺乏如何阅读算法系统底层代码的专业知识而变得不透明。根据 Burrell 的说法,算法也可能因为复杂度或高维性与人类尺度推理之间的不匹配而本质上不透明。无论出于何种原因,算法越来越难以捉摸和不透明,导致多个声音呼吁关注算法日益增长的力量以及追究其责任的必要性(Diakopoulos,2014,2015;Pasquale,2015)。