区块链通常用于访问控制中,以提供安全的医疗数据交换,因为权力下放,无耐受性和可追溯性的特征。患者通过授予用户或医疗机构的访问权利来共享个人健康数据。现有访问控制技术的主要目的是确定允许访问医疗数据的用户。他们几乎从未认识到合法实体的内部攻击者。医疗数据将涉及授权组织中的多层访问。考虑权限管理的成本和内部恶意节点攻击的问题,用户希望在授权机构内实施授权约束。它可以防止他们的数据被不同授权医疗领域的最终用户披露。为了实现共享机构中医学数据的细粒度权限传播控制,本研究建议基于信任的授权访问控制机制。信任阈值根据其灵敏度分配给不同的特权,并用于生成零知识证明,以在区块链节点之间播放。此方法通过动态信任计算模型评估每个用户的信任。和同时,使用智能合约来验证用户的信任是否可以激活某些许可,并确保用户在授权验证过程中信任的隐私。此外,用户和机构之间的授权交易记录在区块链上,以实现患者的可追溯性和问责制。通过全面的比较和广泛的实验来证明该方案的可行性和有效性。
摘要 - 安全人类机器人相互作用(HRI)的策略,例如已建立的安全运动单元,为生物力学上安全的机器人运动提供了速度缩放。此外,值得信赖的HRI需要基于心理的安全方法。此类方案可以非常保守,并且在机器人运动计划中应效率地符合此类安全方法。在这项研究中,我们通过模型预测控制机器人运动计划器提高了先前引入的基于心理安全性的安全性方法的效率,该方法同时调整了笛卡尔路径和速度,以最大程度地减少到目标姿势的距离。下属实时运动发生器通过整合安全运动单元来确保人体安全。我们的运动计划者通过两个实验验证。同时调整路径和速度可以实现高度时间的机器人运动,同时考虑了人类的身体和心理安全。与直接路径速度缩放方法相比,我们的计划者可以实现28%的运动执行。
联合学习(FL)是一种在不共享原始本地数据的情况下培训Edge Computing(EC)中多个客户端的AI模型的有前途的方法。通过启用本地培训并将更新汇总到全球模型中,FL在促进协作学习的同时保持隐私。从未有过,FL遇到了一些挑战,包括您的客户参与,由于患有恶意或不准确的模型而导致的客户效率低下的模型聚合。在本文中,我们提出了一种可信赖的FL方法,该方法结合了Q学习,信任和声誉机制,增强了模型的认可和公平性。此方法促进客户参与,减轻恶意攻击的影响并确保公平的模型分布。受强化学习的启发,Q学习算法使用Bellman方程优化了客户选择,从而使服务器能够平衡探索和开发,以改善系统性能。更重要的是,我们探索了点对点fl设置的优势。广泛的实验证明了我们提出的可信赖的FL方法在实现高学习准确性方面的有效性,同时确保客户之间的公平性并保持有效的客户选择。我们的结果揭示了模型性能,收敛速度和概括方面的显着改善。
John Coley,概念组织,推理和教育(核心)实验室:人类与自然关系的心理模型;人类中心主义和人类例外主义;生态思维中的文化和经验差异;环境认知对环境态度和行为的影响。SaraConstantino,可持续性与社会变革实验室:社会和环境政策和决策;了解个人,制度和生态因素在感知,政策偏好以及对极端事件或冲击的韧性之间的相互作用; the role of polarization, social norms and governance in stimulating or stifling support for climate action. Juliet Davidow , Learning & Brain Development Lab : Research bridging classic areas in psychology, neuroscience, and computer science, to investigate how learning behaviors change with age and can influence what is remembered, how decisions are made, and how goals are established. David Desteno , Social Emotions Lab : Impact of moral emotions on phenomena requiring self-regulation;合作,亲社会行为,道德和经济决策等。 及其对可持续性的影响。ArtKramer,认知和大脑健康中心:城市和野生绿色空间对认知和大脑健康的影响。BrieReid,Reid Lab,气候压力,环境压力,水不安全感,金属曝光,金属曝光率,环境变化,诱发的食物不稳定等等。John Coley,概念组织,推理和教育(核心)实验室:人类与自然关系的心理模型;人类中心主义和人类例外主义;生态思维中的文化和经验差异;环境认知对环境态度和行为的影响。SaraConstantino,可持续性与社会变革实验室:社会和环境政策和决策;了解个人,制度和生态因素在感知,政策偏好以及对极端事件或冲击的韧性之间的相互作用; the role of polarization, social norms and governance in stimulating or stifling support for climate action. Juliet Davidow , Learning & Brain Development Lab : Research bridging classic areas in psychology, neuroscience, and computer science, to investigate how learning behaviors change with age and can influence what is remembered, how decisions are made, and how goals are established. David Desteno , Social Emotions Lab : Impact of moral emotions on phenomena requiring self-regulation;合作,亲社会行为,道德和经济决策等。及其对可持续性的影响。ArtKramer,认知和大脑健康中心:城市和野生绿色空间对认知和大脑健康的影响。BrieReid,Reid Lab,气候压力,环境压力,水不安全感,金属曝光,金属曝光率,环境变化,诱发的食物不稳定等等。可以通过产前/产后压力生理和营养机制影响人类的发展。亚伦·塞特(Aaron Seitz),精神健康和福祉的大脑游戏中心:了解认知过程的机制,并将这些知识应用于公共利益;概念上的改变;决策;信息处理。BrionySwire-Thompson,《误导性心理学实验室:为什么人们相信错误信息,为什么人们在线共享错误信息以及如何设计矫正以促进信念的变化。
战后重建。我们将继续支持乌克兰对其关键基础设施的维修,
当摘要组处于完成状态时,报告高级人员或受信任的代理可以在线提交摘要组 如果通过邮件离线提交,请在所有报告上写上成员和报告高级人员的 SSN,并填写/签署摘要信 报告高级人员/成员负责检查已提交评估的状态 下载报告高级人员、指挥部和成员记录的评估
在2020 - 2021年之间,首先报道HBV病例的西班牙裔Hoosiers的平均年龄为48年。相比之下,在第一个报道的HBV病例时,非西班牙裔Hoosiers平均为44年 - 平均4年的差异。
开箱即用的公平性和偏差评估突出显示了在指定的“敏感”变量中不同组的模型性能和预测的潜在差异。SAS Model Studio 的“公平性和偏差”选项卡显示性能偏差奇偶性、预测偏差奇偶性、性能偏差、预测偏差、偏差指标和偏差奇偶性指标图。SAS Viya 还提供偏差缓解功能,以在训练模型时主动减少偏差。指数梯度减少 (EGR) 算法使用一种缓解偏差的过程内方法,在训练过程中主动调整模型参数,以创建产生公平预测和分类的模型。
背景:人工智能 (AI) 的不断发展和软件初创公司采用率的不断提高要求在设计和开发阶段实施治理措施,以帮助缓解 AI 治理问题。大多数 AI 道德设计和开发工具主要依靠 AI 道德原则作为开发道德 AI 的主要治理和监管工具,为 AI 治理提供信息。然而,由于缺乏信息稳健性,AI 道德原则被认为不足以进行 AI 治理,需要额外的治理措施。自适应治理已被提出将既定的治理实践与 AI 道德原则相结合,以改进信息和后续 AI 治理。我们的研究探索了自适应治理作为提高 AI 道德设计和开发工具信息稳健性的一种手段。我们使用 ECCOLA(一种在早期开发阶段进行道德 AI 软件开发的工具)将信息治理实践与 AI 道德原则相结合。目的:ECCOLA 如何通过使其适应 GARP ® IG 实践来提高其稳健性?方法:我们以 ECCOLA 为例,批判性地分析其 AI 道德原则与一般接受的记录保存原则 (GARP ® ) 的信息治理实践。结果:我们发现,通过将其与信息管理实践(保留和处置)相结合,可以提高 ECCOLA 的稳健性。结论:我们建议通过新的管理主题和卡片 # 21 来扩展 ECCOLA。
用于自动决策的黑盒人工智能系统通常基于对(大)数据的机器学习,将用户的特征映射到一个类别或分数中,而不揭示原因。这不仅是由于缺乏透明度而成问题,而且还因为算法可能继承了人类的偏见和隐藏在训练数据中的收集伪影,从而导致不公平或错误的决策。人工智能的未来在于让人与机器合作解决复杂问题。与任何有效的合作一样,这需要良好的沟通、信任、清晰度和理解。可解释的人工智能解决了这些挑战,多年来,不同的人工智能社区一直在研究这样的主题,从而产生了不同的定义、评估协议、动机和结果。本讲座对迄今为止可解释人工智能(XAI)的工作进行了合理的介绍,并调查了相关文献,重点是机器学习和符号人工智能相关方法。我们激发现实世界和大规模应用中对 XAI 的需求,同时展示最先进的技术和最佳实践,并讨论许多未解决的挑战。