摘要:本文概述了Eth Zurich的Leonhard Med Trusted研究环境(TRE)的开发和运作。Leonhard Med为科学研究人员提供了安全研究敏感研究数据的能力。我们概述了用户观点,即处理敏感数据,设计历史记录,当前状态和操作的法律框架。Leonhard Med是一个有效的,高度安全的可信赖的研究环境,用于数据处理,由ETH ETH托管,由ETH的科学IT服务(SIS)运营。它提供了一大堆安全控制,使研究人员可以根据瑞士立法和苏黎世数据保护政策存储,访问,管理和处理敏感数据。此外,Leonhard Med满足了生物培训信息安全政策,并且与国际数据保护法兼容,因此可以在国家和国际协作研究项目的范围内使用。最初设计为“裸机”高性能计算(HPC)平台,以实现最高性能,后来重新设计为虚拟化的私人云平台,以向其客户提供更多的效果。敏感数据可以在称为租户的安全,分离的空间中分析。技术和组织措施(TOMS)已适当地确保敏感数据的确定性,完整性和可用性。同时,Leonhard Med确保了对尖端研究软件的广泛访问,尤其是用于分析人类数据和其他个性化健康应用程序。
从二元组到更广泛的医疗保健生态系统。随着人工智能 (AI) 在医学领域的出现,必须重新审视信任的要素。我们设想了在核医学领域建立值得信赖的 AI 生态系统的路线图。在本报告中,AI 被置于技术革命的历史中。讨论了与诊断、治疗和工作流程效率相关的核医学 AI 应用机会,以及新出现的挑战和关键责任。建立和保持 AI 的领导地位需要齐心协力,通过让患者、核医学医生、科学家、技术人员和转诊提供者等利益相关者参与进来,促进这项创新技术的合理和安全部署,同时保护我们的患者和社会。该战略计划由核医学和分子成像学会的 AI 工作组制定。
摘要我们提出,可信赖的解释性接受度量指标,以使用专家在循环中评估AI系统。我们的指标通过量化AI系统产生的解释与专家根据其专业知识和经验提供的推理之间的解释之间的距离来计算接受。我们的指标还评估了专家的信任,使用我们的信任机制包括不同的专家组。我们的指标很容易适应任何可解释的AI系统,并用于可信赖的AI系统的标准化过程。我们使用高识别医学AI的应用说明了拟议的度量,该指标是预测导管癌的原位(DCIS)复发。我们的指标成功地捕获了专家在DCIS复发中AI系统的解释性。
BSI 开创性地将安全文化融入组织 —— 无论是工业卫生、食品安全文化、职业健康安全和福祉、医 院卫生还是清洁。 凭借 100 多年前作为世界上首个国家标准机构奠定的坚实基础,BSI 与我们的客户合作成功应对环 境、社会和经济挫折带来的挑战。如今,我们是可信赖的全球品牌,拥有 5000 多名员工,业务运 营遍及全球 193 个国家/地区,成就了一些世界上最广泛采用的标准并且倡导“让追求卓越成为一种 习惯”的理念。 我们使客户能够为遇到的任何情况做好准备,从而成为更强大、更具韧性的组织。我们致力于帮助 我们的客户激发对其员工、流程和产品的信任,而这一切都是以我们的皇家特许为基础。这已融入 我们的 DNA。
然而,我们知道这些人工智能系统可能很脆弱且不公平。在停车标志上添加涂鸦会欺骗分类器,使其认为这不是停车标志 [Eykholt 等人2017]。在良性皮肤病变图像中添加噪声会欺骗分类器,使其认为它是恶性的 [Finlayson 等人 2019]。美国法院使用的风险评估工具已被证明对黑人存在偏见 [Angwin 等人2016]。企业招聘工具已被证明对女性存在偏见 [Dastin 2018]。那么,我们如何才能兑现人工智能带来好处的承诺,同时解决这些对人类和社会产生重大影响的情况呢?简而言之,我们如何实现可信赖的 AI?1.从可信赖计算到可信赖的 AI 具有里程碑意义的 1999 年国家科学院网络空间信任报告为可信赖计算奠定了基础,并继续成为一个活跃的研究领域 [NRC 1999]。美国国家科学基金会启动了一系列关于信任的项目。从可信赖计算(2001 年启动)开始,然后是网络信任(2004 年),然后是可信赖计算(2007 年),现在是安全和可信赖系统(2011 年),计算机和信息科学与工程理事会已经发展了可信赖计算的学术研究社区。尽管它始于计算机科学界,但对可信计算研究的支持现已涵盖 NSF 的多个理事会,并涉及许多其他资助组织,包括通过网络和信息技术研究与开发 (NITRD) 计划的 20 个联邦机构。行业也是可信计算的领导者和积极参与者。凭借比尔盖茨 2002 年 1 月的“可信计算”备忘录 [Gates 2002],微软向其员工、客户、股东和其他信息技术部门发出了可信软件和硬件产品的重要性。它提到了微软内部
Cortex-M(TF-M)可信赖的固件是PSA的中心部分,可信赖的Cortex-M(TF-M)的固件是基于ARM的设备的基础安全处理环境。为满足严格的安全标准而开发的TF-M提供了一个可靠的框架,用于实施安全的启动,加密操作和可信赖的执行环境。通过将关键操作与主要应用程序隔离,TF-M可以保护敏感的数据和流程,以确保完全满足CRA安全要求。
巴黎 - 2024年7月1日-DassaultSystèmes(Euronext Paris:FR0014003TT8,dsy.pa)和Mismtral AI今天宣布了合作伙伴关系,将Frontier AI的全部权力带入了可信赖的环境中。已有40多年的历史,达索·苏斯特梅斯(DassaultSystèmes)授权人和企业在制造行业,生命科学和医疗保健以及城市和领土领域提供可持续创新。进入生成经济的时代,行业必须从产品过渡到经验和可持续性,利用虚拟世界扩展和改善现实世界。AI技术的最新进展,尤其是大型语言模型(LLM),例如Mistral AI,是加速这一旅程的机会。结合了科学建模,模拟和AI,虚拟双胞胎体验提供了解决方案,以增强未来的劳动力。他们揭示了行业知识和专业知识和对可靠性的工业需求的答案,同时保留知识产权。Mistral AI的LLM,包括企业级“大型”模型,在准确性,响应能力和可持续性绩效与DassaultSystèmes的要求之间提供了最先进的平衡。因此,DassaultSystèmes和Mistral AI的合作伙伴关系旨在传达市场:
确保通用人工智能 (AGI) 可靠地避免有害行为是一项关键挑战,尤其是对于具有高度自主性或安全关键领域的系统而言。尽管有各种安全保障建议和极端风险警告,但仍然缺乏平衡人工智能安全性和能力的全面指南。在本立场文件中,我们提出了人工智能-45 法则作为通往可信赖 AGI 的平衡路线图的指导原则,并介绍了可信赖 AGI 的因果阶梯作为实用框架。该框架为当前的人工智能能力和安全性研究提供了系统的分类和层次结构,灵感来自 Judea Pearl 的“因果阶梯”。因果阶梯包含三个核心层:近似对齐层、可干预层和可反射层。这些层解决了 AGI 和当代人工智能系统中安全性和可信赖性的关键挑战。在此框架的基础上,我们定义了五个级别的可信赖 AGI:感知、推理、决策、自主和协作可信赖性。这些级别代表了可信 AGI 的独特而进步的方面。最后,我们提出了一系列潜在的治理措施来支持可信 AGI 的发展。1
在过去五年中,Mozilla 一直致力于推进可信赖的 AI。Mozilla 在 2024 年初发表了一篇论文《加速迈向可信赖的 AI》,概述了 Mozilla 及其盟友如何推进 AI 的开放性、竞争性和问责制。Mozilla 也将其资源投入到这些优先事项中:Mozilla 基金会每年将其 3000 万美元预算中的 100% 用于该主题的慈善活动、宣传和项目工作。Mozilla 还通过 Mozilla.ai 在可信赖 AI 的研发上投资了另外 3000 万美元,并通过 Mozilla Ventures 和 Mozilla Builders 加速器计划向负责任的科技初创公司(包括专注于可信赖 AI 的初创公司)投资了 3500 万美元。在现代AI实践的前沿,Mozilla免费提供供本地使用的开源大语言模型(LLM)AI模型部署系统,并通过0Din漏洞赏金计划赋能更多人在线增强模型的安全性。
申请被邀请参加基于研发项目中的经验,即“物联网(IoT)协议套件(Iot)协议套件,授予有担保和可信赖的边缘计算的经验,邀请了初级/高级研究员(JRF/SRF)的职位。 选定的候选人将参与物联网技术的开发。 该项目的目的是开发IoT平台/协议套件及其参考定义,从而为可信赖的边缘计算提供了IoT协议。申请被邀请参加基于研发项目中的经验,即“物联网(IoT)协议套件(Iot)协议套件,授予有担保和可信赖的边缘计算的经验,邀请了初级/高级研究员(JRF/SRF)的职位。选定的候选人将参与物联网技术的开发。该项目的目的是开发IoT平台/协议套件及其参考定义,从而为可信赖的边缘计算提供了IoT协议。
