听...联合国弹性播客,分享了令人鼓舞的故事和专家见解,以了解全球社区如何适应气候变化。此播客提供实用的解决方案,创新的想法以及有关建筑弹性的全球视角。不要错过这些宝贵的对话!在这里听。
比萨大学,土木与工业工程系 - 航空航天部,意大利比萨 56122 lily.blondel@ing.unipi.it; alberto.sarritzu@ing.unipi.it; angelo.pasini@unipi.it b 米兰理工大学,航空航天、科学与技术系。 (DAER),20156 米兰,意大利 inigo.alforja@polimi.it; michelle.lavagna@polimi.it c 布伦瑞克工业大学,空间系统研究所,38106 布伦瑞克,德国 l.ayala-fernandez@tu-braunschweig.de d 布鲁塞尔自由大学,航空热力学系,1050 Bruxelles,比利时 riccardo.gelain@ulb.be ; patrick.hendrick@ulb.be 和 ONERA/DMPE,图卢兹大学,F-31410 Mauzac,法国 christopher.glaser@onera.fr;杰罗姆·安索因@onera.fr; Jouke.Hijlkema@onera.fr f 德累斯顿工业大学,航空工程学院,01062 德累斯顿,德国 Livia.Ordonjez-Valles@hs-bremen.de; martin.tajmar@tu-dresden.de g 不来梅应用技术学院,28199 不来梅,德国 Livia.Ordonjez-Valles@hs-bremen.de ; uapel@fbm.hs-bremen.de h 柏林工业大学,空间技术系,10587 柏林,德国 e.stoll@tu-berlin.de * 通讯作者
未来几年的大趋势。根据工作室的研究,Gottlieb Duttweiler Institute的生物学时代,“生物学”的时代即将开始。今天,大多数经济都基于从地面上提取的资源:石油,煤炭,天然气。这种情况将在接下来的几十年中发生根本性改变。明天的行业将与有机资源的原材料一起工作。材料和化学物质将在细菌的帮助下产生,就像燃料和食物一样。生物学已成为21世纪的关键技术。这是摘要中最重要的一点。1)生物学设计作为服务。未来属于所谓的合成生物学,该生物学使用技术来创建新的遗传材料或修改现有的材料。这样,可以配备有机体的新技能,从而将细胞基本转化为机器。2)器官智能(OI)与人工智能(AI)集成在一起。科学家已经设法在实验室中生长了从干细胞开始的微型版本的人脑。这些大脑器官能够详细说明和记住信息。<分配到遥远的未来,这些生物计算机可用于执行复杂的计算。3)争取合成食品的战斗。通往生物化世界的道路可能是漫长而艰难的。实验室中种植的肉类的争议表明可以预期的抗性。意大利批准了一项法律,该法律禁止出售不来自传统繁殖或农业的食品。美国佛罗里达州还禁止在实验室中出售肉类。很长时间,以及会发生冲突的利益。
算法和数据驱动系统越来越多地用于公共部门,以提高现有服务的效率或通过新发现的处理大量数据的能力提供新服务。不幸的是,某些情况也会对公民产生负面影响,表现为歧视性结果、武断决定、缺乏追索权等等。这些对公民产生了严重影响,从物质伤害到心理伤害。这些伤害部分来自设计过程中的选择和互动。现有的技术设计批判性和反思性框架没有解决公共部门系统设计中几个重要的方面,即在潜在的算法危害面前保护公民、确保系统安全的机构设计,以及对权力关系如何影响这些系统的设计、开发和部署的理解。本次研讨会的目标是发展这三个观点,并朝着公共组织内反思性设计过程迈出下一步。研讨会将分为两部分。在上半部分,我们将通过一系列简短的演讲阐述这些观点的概念基础。研讨会参与者将通过了解哪些机构可以支持系统安全以及权力关系如何影响设计过程,学习在社会技术系统中防止算法危害的新方法。在下半部分,参与者将有机会通过分析真实案例来应用这些视角,并反思将概念框架应用于实践的挑战。
Yogesh K. Dwivedi a , b , * , Laurie Hughes a , Abdullah M. Baabdullah c , Samuel Ribeiro-Navarrete d , Mihalis Giannakis e , Mutaz M. Al-Debei f , g , Denis Dennehy h , Bhimaraya Metri i , Dimitrios Buhalis j , MK , Cheran Kibo y l , 1 , Ronan Doyle m , 1 , Rameshwar Dubey n , o , 1 , Vincent Dutot p , 1 , Reto Felix q , 1 , DP Goyal r , 1 , Anders Gustafsson s , 1 , Chris Hinsch t , 1 , Ikram Jebli , Jan G , 1 , G. Young ab Kim w , 1 , Jooyoung Kim x , 1 , Stefan Koos y , 1 , David Kreps z , 1 , Nir Kshetri aa , 1 , Vikram Kumar ab , 1 , Keng-Boon Ooi ac , ad , ae , 1 , Savvas Papagiannidis , aflias af , 1 , I ag , Pariaas , 1 , Apparia . na Polyviou ai , 1 , Sang-Min Park aj , 1 , Neeraj Pandey ak , 1 , Maciel M. Queiroz al , 1 , Ramakrishnan Raman am , 1 , Philipp A. Rauschnabel an , 1 , Anuragini Shirish aoanna , 1 , Marina Sigala , Apna , Konstantina , 1 1 , Garry Wei-Han Tan as , at , 1 , Manoj Kumar Tiwari au , av , 1 , Giampaolo Viglia aw , ax , 1 , Samuel Fosso Wamba ay , 1
摘要 人类如何才能继续控制基于人工智能 (AI) 的系统,这些系统旨在自主执行任务?这样的系统越来越普遍,既带来了好处,也带来了不良情况,即其行为的道德责任不能正确地归因于任何特定的人或团体。有意义的人类控制的概念已被提出来解决责任差距,并通过建立条件来缓解责任差距,使责任能够正确地归因于人类;然而,对研究人员、设计师和工程师的明确要求尚未存在,这使得开发仍然处于有意义的人类控制下的基于人工智能的系统具有挑战性。在本文中,我们通过迭代的溯因思维过程确定了有意义的人类控制下的基于人工智能系统的四个可操作属性,从而解决了哲学理论与工程实践之间的差距,我们将利用两个应用场景来讨论这些属性:自动驾驶汽车和基于人工智能的招聘。首先,人类和人工智能算法交互的系统应该有一个明确定义的道德负载场景领域,系统应该在其中运行。其次,系统内的人类和人工智能代理应该有适当且相互兼容的表示。第三,人类承担的责任应与人类控制系统的能力和权威相称。第四,人工智能代理的行为与意识到道德责任的人类行为之间应有明确的联系。我们认为,这四个特性将支持具有实践意识的专业人士采取具体步骤,设计和构建促进有意义的人类控制的人工智能系统。
如今,人们普遍认为人工智能 (AI) 正在显著影响包括铁路在内的众多领域。在本文中,我们对人工智能在铁路运输中的当前最新进展进行了系统的文献综述。特别是,我们从铁路整体角度分析和讨论了论文,涵盖了维护和检查、规划和管理、安全和保障、自动驾驶和控制、收益管理、运输政策和乘客流动等子领域。这篇评论朝着塑造人工智能在未来铁路中的作用迈出了第一步,并总结了当前与铁路运输相关的人工智能研究的重点。我们回顾了 2010 年至 2020 年 12 月期间的约 139 篇科学论文。我们发现,主要研究工作都集中在铁路维护和检查的人工智能上,而关于铁路运输政策和收益管理的人工智能的研究非常有限或没有。其余子领域受到了轻度到中度的关注。人工智能应用前景广阔,往往会成为解决多项铁路挑战的游戏规则改变者。然而,目前,铁路领域的人工智能研究大多仍处于早期阶段。未来的研究有望开发先进的组合人工智能应用(例如优化),将人工智能用于决策,处理不确定性并应对新出现的网络安全挑战。
人工智能和机器学习的进步导致人工智能在各个领域中用于增强或支持人类决策的采用急剧增加。越来越多的研究致力于解决模型可解释性和解释的好处,以帮助最终用户或其他利益相关者解读所谓“黑匣子人工智能系统”的内部工作原理。然而,目前人们对传达解释的方式(例如,文本、可视化或音频)在通知、增强和塑造人类决策方面的作用了解甚少。在我们的工作中,我们通过可信度评估系统的视角来解决这一研究空白。考虑到通过各种渠道获得的大量信息,人们在做出决策时会不断考虑他们所消费信息的可信度。然而,随着信息过载的增加,评估我们所遇到的信息的可信度并非易事。为了帮助用户完成这项任务,自动可信度评估系统已被设计为各种情况下的决策支持系统(例如,,评估新闻或社交媒体帖子的可信度)。但是,为了使这些系统有效地支持用户,它们需要得到信任和理解。事实证明,解释在告知用户对决策支持系统的依赖方面发挥着至关重要的作用。在本文中,我们研究了解释方式对人工智能辅助可信度评估任务的影响。我们使用一项涵盖六种不同解释模式的受试者间实验(N = 375),以评估解释模式对 AI 辅助决策结果准确性、用户对系统信任度以及系统可用性的影响。我们的结果表明,解释在塑造用户对决策支持系统的依赖方面发挥着重要作用,从而影响决策的准确性。我们发现,在有解释的情况下,用户在评估陈述的可信度时表现更准确。我们还发现,在没有解释的情况下,用户很难就陈述的可信度达成一致。如果有解释,文本和音频解释比图形解释更有效。此外,我们发现
从演示和成对偏好推断奖励函数是将强化学习 (RL) 代理与人类意图相结合的良好方法。然而,最先进的方法通常专注于学习单一奖励模型,因此很难权衡来自多位专家的不同奖励函数。我们提出了多目标强化主动学习 (MORAL),这是一种将社会规范的不同演示组合成帕累托最优策略的新方法。通过维持标量权重的分布,我们的方法能够以交互方式调整深度 RL 代理以适应各种偏好,同时无需计算多个策略。我们在两种场景中通过实证证明了 MORAL 的有效性,这两种场景模拟了交付和紧急任务,需要代理在存在规范冲突的情况下采取行动。总的来说,我们认为我们的研究是朝着具有学习奖励的多目标 RL 迈出的一步,弥合了当前奖励学习和机器伦理文献之间的差距。
自动化纤维铺层技术广泛应用于航空领域,以高效生产复合材料部件。然而,所需的人工检查可能占用高达 50% 的制造时间。使用神经网络对纤维铺层缺陷进行自动分类可能会提高检查效率。然而,这种分类器的机器决策过程难以验证。因此,我们提出了一种分析纤维铺层缺陷分类过程的方法。因此,我们全面评估了文献中的 20 种可解释人工智能方法。因此,将平滑积分梯度、引导梯度类激活映射和 DeepSHAP 技术应用于卷积神经网络分类器。这些方法分析分类器对未知和操纵的输入数据的神经激活和鲁棒性。我们的研究表明,平滑积分梯度和 DeepSHAP 尤其适合可视化此类分类。此外,最大灵敏度和不保真度计算证实了这种行为。将来,客户和开发人员可以应用所提出的方法来认证他们的检查系统。