虽然已经提出了各种方法来解释人工智能模型,但对生成的解释的可信度却很少进行检验。本文表明,这种解释可能容易受到输入的细微扰动的影响,并产生误导性结果。在公共 CheXpert 数据集上,我们证明专门设计的对抗性扰动可以很容易地篡改显着性图以达到所需的解释,同时保留原始模型预测。医学领域的人工智能研究人员、从业者和权威机构在解释人工智能模型时应谨慎,因为这种解释可能不相关、误导,甚至在不改变模型输出的情况下被对抗性操纵。医学领域的人工智能研究人员、从业者和权威机构在解释人工智能模型时应谨慎,因为这种解释可能不相关、误导,甚至在不改变模型输出的情况下被对抗性操纵。
AI = 人工智能 ML = 机器学习 IPC = 创新伙伴关系合同 CAT = 商业航空运输 SPO = 单飞行员操作 CDR = 冲突检测与解决
→ 让申请人能够尽早了解 EASA 对实施 AI/ML 解决方案的可能期望。→ 为 1 级 AI 应用建立基线,并将针对 2 级和 3 级 AI 应用进一步完善。
作者 周晓燕博士 周晓燕博士领导牛津可持续金融小组的可持续金融绩效主题。她的研究兴趣集中在可持续投资、转型风险和机构股东参与。她在《商业伦理杂志》(FT 50)等期刊上发表文章,并担任《自然气候变化》等多家期刊的审稿人。她获得了 PRI 2019 最佳定量论文奖。 吉雷什·什里马利博士 吉雷什·什里马利博士是牛津可持续金融小组的转型金融研究主管,也是英国财政部于 2022 年成立的英国过渡计划工作组秘书处的技术负责人。他还是伦敦帝国理工学院气候金融与投资中心以及新加坡管理大学新加坡绿色金融中心的访问学者。此前,他曾担任气候政策倡议印度项目主任、可持续金融倡议研究员以及斯坦福大学 Steyer-Taylor 能源政策与金融中心。他曾在约翰霍普金斯大学、米德尔伯里国际研究学院、印度商学院和印度管理学院任教。致谢我们感谢牛津可持续金融小组 (OxSFG) 和桑坦德银行于 2023 年 2 月 28 日和 6 月 13 日主办的研讨会的所有参与者参与了有益的讨论。我们特别感谢袁家海教授、爱德华·贝克和克里斯蒂安·威尔逊审阅我们的讨论文件。这项工作的资金由桑坦德银行提供。我们也感谢桑坦德银行提供的意见
1 意大利帕多瓦大学外科、肿瘤和胃肠科学系 (DiSCOG),帕多瓦 35122,意大利。2 意大利贝加莫东塞里亚特 (贝加莫) 24068 ASST 外科系。3 意大利米拉诺医院外科系,米拉诺 (威尼斯) 30035,意大利。4 意大利佩斯基耶拉 37019 佩德佐利医院肝胆胰外科系。5 比利时根特大学医院普通外科、HPB 外科和肝移植系,根特 109000。6 意大利帕多瓦大学心脏、胸腔、血管科学和公共卫生系,帕多瓦 35128,意大利。7 美国新墨西哥大学电气与计算机工程系研究教授,新墨西哥州阿尔伯克基 87131。 8 “Associazione Donne 4.0”主席,意大利利沃诺 57123。 9 外科部,普瓦西/圣日耳曼昂莱地区医院中心医院,普瓦西 78300,法国。 # 作者贡献均等。
物种和生物系统内的生物多样性价值是物种和生态系统生存能力的主要指标之一。近几十年来,生物多样性保护问题已成为考虑全球、国家和地方环境和经济变化的核心问题之一,因为维持生命和经济活动的潜力正在下降。在地方层面保护某些类型的生物资源会对其他地区的情况产生影响。尽管在经济活动与自然环境保护之间关系的研究中发生了重大转变,但生态状况在过去二十年中仍在恶化,导致生物多样性退化。在这种情况下,有必要提高现有的生态系统生物多样性定量评估的可信度并引入新的定量评估,以便对当前生物系统的状态得出客观结论,并预测生物系统的发展,同时考虑外部影响。这将允许调整经济活动,考虑到保护物种丰富度的需要。到目前为止,可以定量评估生态系统生物多样性的定量指标有香农多样性指数、皮耶卢指数和辛普森指数 [1]。这些指数是根据离散度和熵公式计算得出的,这些公式以个体对之间所有关系的数量为参数,无论它们属于哪个特定分类单元。在生物多样性的定量评估中,我们还可以列举 Theil、Berger-Parker、Gini 和 McIntosh 指数。这些指标以及变化预测可以使用目前广泛使用的基于神经网络的人工智能方法获得。神经网络将提高这些评估的客观性,因为它们的使用允许考虑外部因素对生物多样性定量评估的影响,并且神经网络输出的结果不依赖于提供给其输入的数据的分布类型,这与大多数机器学习算法不同,其中的工作基于所研究数据的正态分布假设,但在实践中并非总是如此。使用神经网络对生物多样性进行定量评估基于以下描述的方法:
调查用于了解社区情绪,并深入了解社区对公共服务使用人工智能可能带来的好处的期望、担忧和看法。重要的是,这些调查填补了社区情绪知识的空白。虽然有关于对公共服务的信任 1 以及对人工智能和其他新兴技术的信任的信息,但人们对政府在公共服务中使用人工智能的信任知之甚少。长期洞察简报试点中的调查是一种更好地了解社区对在公共服务中使用人工智能的看法以及影响政府机构可信度的因素的方法。
HAL 是一个多学科开放存取档案库,用于存放和传播科学研究文献,无论这些文献是否已出版。这些文献可能来自法国或国外的教学和研究机构,也可能来自公共或私人研究中心。
技术进步使 AI 讲师(更宽泛地说是机器教师)成为了现实。然而,关于学生如何看待提供教育内容的 AI 讲师,我们可用的信息有限。因此,本研究通过一项在线实验,采用 2(声音:机器般的 vs. 人类般的)x 2(专业知识:新手 vs. 专家)被试间设计,检验 AI 讲师的声音和专业知识对 AI 讲师感知可信度的影响。研究结果表明,与机器般的声音相比,学生认为具有人性化声音的 AI 讲师的可信度更高。研究还发现,社交存在感在 AI 讲师的声音与 AI 讲师感知可信度之间的关系中起着中介作用。最后,AI 讲师感知可信度会对学生未来报名参加基于 AI 讲师的在线课程的意愿产生积极影响。这些发现强调了培养被认为可信的 AI 讲师的重要性。
本文解决了现有的AI风险管理框架中的关键差距,强调了对人为因素的忽视以及缺乏社会相关或人类威胁的指标。从NIST AI RFM和Enisa提供的见解中得出,研究强调了了解人类相互作用的局限性以及道德和社会测量的局限性。本文探讨了可信赖性的各个方面,涵盖了立法,AI网络威胁情报和AI对手的特征。它深入研究了技术威胁和漏洞,包括数据获取,中毒和后门,强调了网络安全工程师,AI专家和社会心理学行为 - 行为 - 行为 - 伦理学专业人员之间协作的重要性。此外,研究了与AI融入社会相关的社会心理威胁,解决了诸如偏见,错误信息和隐私侵蚀等问题。手稿提出了一种全面的AI可信度方法,结合了技术和社会缓解措施,标准和正在进行的研究计划。此外,它还引入了创新的防御策略,例如网络社会练习,数字克隆和对话代理,以增强对对手的理解并加强AI安全性。本文以跨学科合作,宣传运动和持续研究的呼吁结束,以创建一个与道德标准和社会期望相符的强大而有弹性的AI生态系统。