随着人工智能应用在我们的日常生活中越来越普遍,立法者和当局正在努力建立对人工智能应用的高度信任。随着人工智能系统的发展并进入医疗保健和交通等关键领域,信任变得至关重要,需要考虑多个方面。人工智能系统必须确保其决策过程的公平性和公正性,以符合道德标准。自主性和控制是必要的,以确保系统在高效和有效的同时与社会价值观保持一致。人工智能系统的透明度有助于理解决策过程,而可靠性在各种情况下都至关重要,包括错误、偏见或恶意攻击。安全性对于关键的人工智能应用至关重要,可以防止伤害和不良后果。本文提出了一个框架,该框架利用各种方法为整个应用程序建立定性要求和定量指标,采用基于风险的方法。然后利用这些措施来评估人工智能系统。为了满足要求,在系统级别建立了各种手段(例如流程、方法和文档),然后针对不同维度进行详细说明和补充,以实现对人工智能系统的足够信任。对测量结果进行单独和跨维度评估,以评估人工智能系统满足可信要求的程度。
摘要尽管最近人们致力于使人工智能系统更加透明,但人们对此类系统普遍缺乏信任,这仍然阻碍了人们和组织使用或采用它们。在本文中,我们首先从最终用户可解释性和规范伦理的角度介绍评估人工智能解决方案可信度的方法。然后,我们通过一个涉及实际商业环境中使用的人工智能推荐系统的案例研究说明了它的采用情况。结果表明,我们提出的方法可以识别与人工智能系统相关的广泛实际问题,并进一步支持制定改进机会和通用设计原则。通过将这些发现的机会与道德考虑联系起来,总体结果表明,我们的方法可以支持可信人工智能解决方案的设计和开发以及符合道德的业务改进。
社交媒体上的错误信息已成为一个严重问题。用可信度指标(可能是由人工智能模型生成的)标记新闻报道是帮助人们打击错误信息的一种方法。在本文中,我们报告了两项随机实验的结果,旨在了解当人们受到社会影响,以至于他们对新闻的判断受到其他人的影响时,基于人工智能的可信度指标对人们对新闻的看法和参与度的影响。我们发现,基于人工智能的可信度指标的存在会促使人们将他们对新闻真实性的信念与人工智能模型的预测相一致,而不管其正确性如何,从而改变人们检测错误信息的准确性。然而,当存在社会影响时,基于人工智能的可信度指标对影响人们对真实新闻或虚假新闻的参与度的影响有限。最后,结果表明,当存在社会影响力时,基于人工智能的可信度指标对虚假信息的检测和传播的影响要大于没有社会影响力时,因为在人们对新闻形成自己的判断之前,这些指标就已提供给人们。最后,我们提出了更好地利用人工智能来打击虚假信息的建议。
作者 周晓燕博士 周晓燕博士领导牛津可持续金融小组的可持续金融绩效主题。她的研究兴趣集中在可持续投资、转型风险和机构股东参与。她在《商业伦理杂志》(FT 50)等期刊上发表文章,并担任《自然气候变化》等多家期刊的审稿人。她获得了 PRI 2019 最佳定量论文奖。 吉雷什·什里马利博士 吉雷什·什里马利博士是牛津可持续金融小组的转型金融研究主管,也是英国财政部于 2022 年成立的英国过渡计划工作组秘书处的技术负责人。他还是伦敦帝国理工学院气候金融与投资中心以及新加坡管理大学新加坡绿色金融中心的访问学者。此前,他曾担任气候政策倡议印度项目主任、可持续金融倡议研究员以及斯坦福大学 Steyer-Taylor 能源政策与金融中心。他曾在约翰霍普金斯大学、米德尔伯里国际研究学院、印度商学院和印度管理学院任教。致谢我们感谢牛津可持续金融小组 (OxSFG) 和桑坦德银行于 2023 年 2 月 28 日和 6 月 13 日主办的研讨会的所有参与者参与了有益的讨论。我们特别感谢袁家海教授、爱德华·贝克和克里斯蒂安·威尔逊审阅我们的讨论文件。这项工作的资金由桑坦德银行提供。我们也感谢桑坦德银行提供的意见
物种和生物系统内的生物多样性价值是物种和生态系统生存能力的主要指标之一。近几十年来,生物多样性保护问题已成为考虑全球、国家和地方环境和经济变化的核心问题之一,因为维持生命和经济活动的潜力正在下降。在地方层面保护某些类型的生物资源会对其他地区的情况产生影响。尽管在经济活动与自然环境保护之间关系的研究中发生了重大转变,但生态状况在过去二十年中仍在恶化,导致生物多样性退化。在这种情况下,有必要提高现有的生态系统生物多样性定量评估的可信度并引入新的定量评估,以便对当前生物系统的状态得出客观结论,并预测生物系统的发展,同时考虑外部影响。这将允许调整经济活动,考虑到保护物种丰富度的需要。到目前为止,可以定量评估生态系统生物多样性的定量指标有香农多样性指数、皮耶卢指数和辛普森指数 [1]。这些指数是根据离散度和熵公式计算得出的,这些公式以个体对之间所有关系的数量为参数,无论它们属于哪个特定分类单元。在生物多样性的定量评估中,我们还可以列举 Theil、Berger-Parker、Gini 和 McIntosh 指数。这些指标以及变化预测可以使用目前广泛使用的基于神经网络的人工智能方法获得。神经网络将提高这些评估的客观性,因为它们的使用允许考虑外部因素对生物多样性定量评估的影响,并且神经网络输出的结果不依赖于提供给其输入的数据的分布类型,这与大多数机器学习算法不同,其中的工作基于所研究数据的正态分布假设,但在实践中并非总是如此。使用神经网络对生物多样性进行定量评估基于以下描述的方法:
1 意大利帕多瓦大学外科、肿瘤和胃肠科学系 (DiSCOG),帕多瓦 35122,意大利。2 意大利贝加莫东塞里亚特 (贝加莫) 24068 ASST 外科系。3 意大利米拉诺医院外科系,米拉诺 (威尼斯) 30035,意大利。4 意大利佩斯基耶拉 37019 佩德佐利医院肝胆胰外科系。5 比利时根特大学医院普通外科、HPB 外科和肝移植系,根特 109000。6 意大利帕多瓦大学心脏、胸腔、血管科学和公共卫生系,帕多瓦 35128,意大利。7 美国新墨西哥大学电气与计算机工程系研究教授,新墨西哥州阿尔伯克基 87131。 8 “Associazione Donne 4.0”主席,意大利利沃诺 57123。 9 外科部,普瓦西/圣日耳曼昂莱地区医院中心医院,普瓦西 78300,法国。 # 作者贡献均等。
摘要 基于人工智能的系统可信度评估是一个具有挑战性的过程,因为该主题的复杂性涉及定性和可量化的概念、属性的广泛异质性和粒度,在某些情况下甚至后者的不可比性。评估人工智能系统的可信度在安全关键领域尤其具有决定性,因为人工智能预计主要会自主运行。为了克服这些问题,Confiance.ai 程序 [ 1 ] 提出了一种基于多标准决策分析的创新解决方案。该方法包含几个阶段:将可信度构建为一组定义明确的属性,探索属性以确定相关的性能指标(或指标),选择评估方法或控制点,以及构建多标准聚合方法来估计对信任的全局评估。该方法通过将一些性能指标应用于数据驱动的 AI 环境来说明,而对聚合方法的关注则作为 Confiance.ai 里程碑的近期视角。
摘要 基于人工智能技术的算法正在慢慢改变街头官僚机构,然而算法缺乏透明度可能会危及公民的信任。基于程序公平理论,本文假设算法透明度的两个核心要素(可访问性和可解释性)对于增强街头决策的可信度至关重要。本文在一个自由裁量权较低的场景(签证申请被拒绝)和一个自由裁量权较高的场景(福利欺诈嫌疑)中对这一假设进行了测试。结果表明:(1)可解释性对信任的影响比算法的可访问性更明显;(2)算法透明度的影响不仅涉及对算法本身的信任,而且部分涉及对人类决策者的信任;(3)算法透明度的影响在决策环境中并不稳健。这些发现意味着透明度作为可访问性不足以培养公民信任。必须解决算法的可解释性问题,以维持和培养算法决策的可信度。
[9] 郭东升 , 鲍劲松 , 史恭威 , 等 . 基于数字孪生的航天结构 件制造车间建模研究 [J]. 东华大学学报 ( 自然科学版 ), 2018, 44(4): 578-585, 607. Guo Dongsheng, Bao Jinsong, Shi Gongwei, et al. Research on Modeling of Aerospace Structural Parts Manufacturing Workshop Based on Digital Twin[J]. Journal of Donghua University(Natural Science), 2018, 44(4): 578-585, 607.
可信度经济是一种批判性和分析性的启发式方法,本书以此为框架,探讨通过媒体文化进行的性别和种族可信度斗争。在二十一世纪,媒体对性暴力的描述因大众女权主义的可见度提高而得到强化,因此大众女权主义干预越来越多地通过媒体表达出来(Banet-Weiser,2018 年;Rottenberg,2018 年;Orgad 和 Gill,2022 年)。在关于大众女权主义和大众厌女症的文章中,Banet-Weiser(2018 年)认为,可见度经济是当代背景下的一种大众女权主义形象、表达和实践,这种形式在很大程度上是肯定性的和个人赋权的。在这种经济中,大众女权主义往往始于可见度,也终于可见度;可见度本身就是一种目的,而不是实现其他目的(如社会变革)的手段。事实上,在当代,存在着媒体学者赫尔曼·格雷(Herman Gray,2013)所说的“对可见性的煽动”。他问道,当最初产生认可必要性的社会结构发生转变时,这种对可见性的追求能产生什么结果。例如,当媒体对有色人种的报道越来越多,但日常生活中种族主义行为却越来越露骨时,可见性的提高意味着什么?因此,格雷问道,“对认可的渴望”是否会用对个人立场的认可取代结构性变化。可见性经济在#MeToo全球运动中以惊人的方式体现出来。依靠大众女权主义蓬勃发展的可见性回路,#MeToo