未来几十年的气候预测受到未来温室气体浓度,对这些气体的区域气候反应以及自然气候变化的不确定性的影响。排放途径(请参阅温室气体排放事实表)从非常低到很高,并且基于关于未来人口统计学变化,社会经济发展,能源使用,土地使用和空气污染的合理假设。气候模型(请参阅气候模型事实表)是由温室气体和气溶胶浓度的预计变化驱动的,以估计区域气候的未来变化。有数十种气候模型,每种模型都会产生对未来气候的独特模拟。模拟包括自然气候变异性(请参阅气候变异性解释器)在一系列空间和时间尺度上,包括每日/当地天气以及由于ENSO等因素引起的每日/地区/区域气候极端。
建立患者信任和加强医疗领域数据基础设施的工作示例包括由英国健康数据研究机构资助的 INSIGHT,该项目使用匿名眼部扫描数据,由 ODI 共同开发的多元化数据信托咨询委员会监督。ODI 还强调了隐私增强技术 (PET) 在确保安全、合乎道德的数据访问方面的作用。例如,在 PET 解释器中,联合学习(由牛津大学 CURIAL-Lab 团队展示)使 AI 模型能够跨多个数据源进行训练,从而无需共享数据即可筛查患者是否感染 COVID-19,从而增强隐私和协作。OpenSafely 支持在可信研究环境中链接患者健康记录。数据分析师可以使用此功能来揭示大量疾病、合并症和患者人口统计数据的模式。精心策划的数据基础设施是 AI 功能和部署必须依赖的基础。
未来几十年的气候预测受到未来温室气体浓度,对这些气体的区域气候反应以及自然气候变化的不确定性的影响。排放途径(请参阅温室气体排放事实表)的范围从非常低到非常高,并且基于关于未来人口变化,社会经济发展,能源使用,土地使用和空气污染的合理假设。气候模型(请参阅气候模型事实表)是由温室气体和气溶胶浓度的预计变化驱动的,以估计区域气候的未来变化。有数十种气候模型,每种模型都会产生对未来气候的独特模拟。模拟包括自然气候变异性(请参阅气候变异性解释器)在一系列空间和时间尺度上,包括每日/当地天气以及由于ENSO等因素引起的每日/地区/区域气候极端。
可解释人工智能 (XAI) 在实现人类对深度学习系统的理解和信任方面发挥着至关重要的作用。随着模型变得越来越大、越来越普遍、越来越深入日常生活的各个方面,可解释性对于最大限度地减少模型错误造成的不利影响是必不可少的。不幸的是,以人为本的 XAI 中的当前方法(例如医疗保健、教育或个性化广告中的预测任务)倾向于依赖于单一的事后解释器,而最近的研究发现,当应用于底层黑盒模型的相同实例时,事后解释器之间存在系统性分歧。因此,在本文中,我们呼吁采取行动来解决当前最先进解释器的局限性。我们建议从事后可解释性转向设计可解释的神经网络架构。我们确定了以人为本的 XAI 的五个需求(实时、准确、可操作、人性化解释和一致性),并提出了两种可解释设计神经网络工作流程方案(使用 InterpretCC 进行自适应路由和使用 I2MD 进行时间诊断)。我们假设以人为本的 XAI 的未来既不在于解释黑匣子,也不在于恢复传统的可解释模型,而在于本质上可解释的神经网络。
RU-61-01-0176-170223/解释者安娜·玛尼 (1918-2001):安娜·玛尼曾任印度气象局 (IMD) 副局长,是一位印度物理学家和气象学家。她在伦敦帝国理工学院学习气象仪器,1948 年返回印度后,加入浦那气象部门。她开展了太阳辐射、臭氧和风能测量方面的研究,并发表了大量论文。她撰写了两本书,分别是 1980 年的《印度太阳辐射数据手册》和 1981 年的《印度太阳辐射》,并于 1987 年获得 KR Ramanathan 奖章。EK Janaki Ammal (1897-1984):理学博士(1931 年,密歇根州),印度科学院创始院士。她是一位著名的植物学家和植物细胞学家,在遗传学、进化论、植物地理学和民族植物学方面做出了重大贡献。阿玛尔于 1935 年当选为印度科学院院士,并于 1957 年当选为印度国家科学院院士。密歇根大学于 1956 年授予她名誉法学博士学位。印度政府于 1957 年授予她莲花士勋章。2000 年,印度政府以她的名义设立了国家分类学奖 5 。
可解释人工智能 (XAI) 在使人类理解和信任深度学习系统方面发挥着至关重要的作用。随着模型变得越来越大、越来越普遍,并且在日常生活的各个方面都无处不在,可解释性对于最大限度地减少模型错误的不利影响是必不可少的。不幸的是,以人为中心的 XAI 中的当前方法(例如医疗保健、教育或个性化广告中的预测任务)倾向于依赖于单个事后解释器,而最近的研究发现,当应用于相同的底层黑盒模型实例时,事后解释器之间存在系统性分歧。因此,在本文中,我们呼吁采取行动来解决当前最先进解释器的局限性。我们建议从事后可解释性转向设计可解释的神经网络架构。我们确定了以人为中心的 XAI 的五个需求(实时、准确、可操作、人类可解释和一致),并提出了两种可解释设计神经网络工作流程的方案(使用 InterpretCC 进行自适应路由和使用 I2MD 进行时间诊断)。我们假设以人为中心的 XAI 的未来既不在于解释黑匣子,也不在于恢复传统的可解释模型,而在于本质上可解释的神经网络。
基于扩散的生成模型创建令人信服的图像的令人印象深刻的能力引起了全球关注。然而,它们的复杂内部结构和操作通常会挑战非专家。我们引入了扩散,这是第一个交互式可视化工具,以阐明稳定的扩散变速器如何在图像中提示稳定。它紧密地概述了稳定扩散的组件的视觉概述,并详细说明了其基础操作。此集成使用户能够通过动画和交互式元素在多个级别的抽象之间流动过渡。提供实时的动手体验,扩散解释器允许用户在而无需安装或专业硬件的情况下调整稳定扩散的超参数和提示。通过用户的网络浏览器访问,扩散范围在民主的AI教育方面取得了长足的进步,从而促进了更广泛的公共服务。超过7,200名跨越113个国家/地区的用户在https:// poloclub上使用了我们的开源工具。github.io/diffusion-explainer/。可以在https://youtu.be/mbkiadzjpna上获得视频演示。
计划概述:目录 目录和图表列表已更新,包含新的页码、新地图图形和新表格。 第 1 章:简介 简介包括 2024 年主动交通计划更新的简要概述,强调关键主题、计划组织、公众宣传、当地机构的角色和职责,以及太浩湖区域土地使用的简要说明。 第 2 章:现有条件和需求分析 全面更新的需求评估是本次更新的一部分,还有新数据、地图、图形和表格。本章介绍了自行车交通压力水平和行人体验指数分析、当前挑战以及安全、连通性、实施和维护问题的解决方案。 第 3 章:目标、政策和绩效衡量 本章有助于机构将区域目标与当地项目发展保持一致。它简要概述了太浩盆地主动交通的未来,以及绩效指标如何决定 TRPA 作为交通大都市规划组织 (TMPO) 及其合作机构、组织和私人实体如何合作改善主动交通并增加其使用。
1. 2017 年,欧洲议会在 2017 年 2 月 16 日的决议中提到了这三部定律,并向机器人民法规则委员会提出了建议。2018 OJ (C 252) 25。2020 年,一名法国议员提出一项法案草案,寻求将机器人三部定律编入法国宪法序言。Proposition de loi Constitutioneellerel à la Charte,Assemblée Nationale,2020,No. 2585 (Fr.)。2. 此外,细心的读者会知道,阿西莫夫几乎从不谈论人工智能,而是谈论机器人和正电子大脑。3. 阿西莫夫在他的职业生涯中写了大约 500 本书。S TANLEY A SIMOV,Y OURS,I SAAC A SIMOV,x (1996)。另请参阅 David Leslie, Isaac Asimov: centenary of the great explainer, 577 N ATURE 614 (2020)。值得注意的是,艾萨克·阿西莫夫出版了三本合集,庆祝他的第一百部作品(《艾萨克·阿西莫夫,O PUS 100》 (1969))、第二百部作品(《艾萨克·阿西莫夫,O PUS 200》 (1979))和第三百部作品(《艾萨克·阿西莫夫,O PUS 300》 (1984))的出版。阿西莫夫发表的第一篇短篇小说是 1939 年的《卡利斯坦的威胁》(最初名为《偷渡者》)。《艾萨克·阿西莫夫,早期的 A SIMOV 13》(1972 年)[以下简称《A SIMOV,早期的 A SIMOV》]。顺便说一下,这是阿西莫夫写的第二篇短篇小说(如果算上他写的短篇小说《小弟弟》,则是第三篇了,《小弟弟》发表在布鲁克林男子高中的文学评论中),第一篇是《宇宙开瓶器》(从未出版)。他的第一本书是《天空中的鹅卵石》(最初名为《和我一起变老》),出版于 1950 年 1 月 19 日。阿西莫夫,《天空中的鹅卵石》(1950 年)。参见阿西莫夫,《早期的阿西莫夫》。因此,阿西莫夫花了二十年时间出版了一百本书(1950-1969),花了十年时间出版了一百本(1969-1979),又花了五年时间出版了他的第三百本书(1979-1984)。 4. Giovanni Sartor,《信息社会中的人权:乌托邦、反乌托邦和人类价值观》,载《人权的哲学维度》,第 293 页(Claudio Corradetti 主编,2012 年)。另请参阅 Kieran Tranter,《生活在技术法律中:科幻小说和法律技术》(2018 年)。
最近视觉变压器模型已成为多种视觉任务的重要模型。这些模型通常是不透明的,具有弱特征可解释性,使用户的预测差。虽然对解释模型决策的事后解决方案的开发产生了兴趣,但这些方法不能广泛应用于不同的变压器体系结构,因为可解释性规则必须基于数据和模型结构的异质性进行相应的变化。此外,目前没有为本质上可解释的变压器构建的方法,该方法能够解释其推理过程并提供忠实的解释。为了缩小这些关键的差距,我们提出了一种新型视觉变压器,称为“可解释的视觉变压器”(Ex-Vit),这是一种可解释的变压器模型,能够共同发现可鲁棒的可解释特征并执行预测。特定于特定的,前vit由可解释的多头注意(E-MHA)模块组成,属性引导的解释器(ATTE)模块具有自我监督的属性引导损失。E-MHA裁缝可解释的注意力权重,能够从具有噪音稳健性的模型决策中从代币中学习可解释的表示表示。与此同时,通过各种属性剖面构成了目标对象的区分属性特征,该特征构成了模型预测的忠实证据。结果,提议的前武率模型可以用各种学习的属性产生忠实而强大的解释。此外,我们为前武器架构开发了一种自我监督的属性引导损失,该体系结构既利用了属性的可行性机制和属性多样性机制来提高学习成分的质量。为了验证和评估我们的方法,我们将前vit应用于几个弱监督的语义细分(WSS)任务,因为这些任务通常依赖于准确的视觉解释来提取对象本地化图。尤其是,通过前视图获得的解释结果被认为是训练WSSS模型的伪分段标签。综合模拟结果幻想表明,我们提出的前武器模型可以达到与监督基线相当的性能,同时仅使用仅使用图像级标签的最先进的黑盒方法超过了最先进的黑盒方法的准确性和解释性。