跨学科人工智能参与者、能力、技能和建立背景的能力反映了人口多样性和广泛的领域和用户体验专业知识,并且他们的参与得到了记录。优先考虑跨学科合作的机会。
A AEEC:航空公司电子工程委员会 AFDX:航空电子全双工交换以太网 API:美国石油学会 APTA:美国公共交通协会 ARINC:航空无线电协会 ARP:航空航天推荐做法 ASA:飞机安全评估 AT:攻击树 C CCA:常见原因分析 CIKR:关键基础设施和关键资源 CMA:共模分析 COTS:商用现货 D DCS:分布式控制系统 DHS:国土安全部 DOD:国防部 DOE:能源部 DOT:运输部 E EASA:欧洲航空安全局 EFB:电子飞行包 EO:行政命令 F FAA:联邦航空管理局
通过在代码闪存的一部分中存储需要高度保密的软件(例如加密算法处理软件、涉及技术诀窍的设备控制处理软件、付费中间件等),可信存储器 (TM) 功能可防止第三方的未经授权的访问和软件更改。本应用说明介绍了如何在受 TM 保护的区域中存储软件以及如何使用该区域内的软件。
戴尔科技集团创建了戴尔可信工作区,这是业界创新而有效的技术和解决方案(包括硬件和软件)组合,旨在帮助组织努力保护其企业的安全。过去十年来,戴尔投入巨资的领域之一是终端本身的安全性,在这里指的是“客户端”设备(台式机、工作站和笔记本电脑)。戴尔硬件内置的一系列创新“内置”安全功能增强了戴尔客户端设备检测、响应和缓解在操作系统范围之下(通常称为“操作系统之下”)运行的隐秘攻击的能力。戴尔通过与软件(EDR/XDR 和 SIEM)和 Microsoft Intune 等设备管理解决方案集成,更进一步,使组织能够采取适当的行动并分析威胁,以提高响应效率。
对存储在 blob 存储、数据库等中的非活动数据进行加密。对在不受信任的公共或私有网络之间流动的数据进行加密。对在 RAM 中和计算过程中正在使用的数据进行保护/加密。
本论文免费提供给您,供您开放访问。它已被 PDXScholar 的授权管理员接受,可纳入学位论文和论文中。如果我们可以让此文档更容易访问,请联系我们:pdxscholar@pdx.edu。
本文件由人工智能高级专家组 (AI HLEG) 编写。这是人工智能 HLEG 的第三份成果,紧随该小组于 2019 年 4 月 8 日发布的《可信人工智能道德准则》成果之后。本文件中提到的人工智能 HLEG 成员在其整个任期内为内容的制定做出了贡献。这项工作以欧盟委员会于 2019 年 6 月 26 日至 2019 年 12 月 1 日进行的《可信人工智能道德准则》中所载原始评估清单的试点阶段为依据。他们支持本文件中提出的可信人工智能评估清单的大方向,尽管他们不一定同意其中的每一条声明。人工智能高级专家组是欧盟委员会于 2018 年 6 月成立的一个独立专家组。
本论文的研究从新技术或现有技术开始,目的是使角色更加逼真、视觉功能性、美观和严谨。在此过程中,作者避免了不确定或抽象的技术方面,例如:特定技术参数、摩尔定律和人体工程学(Parmentola,2006)。当遇到获取某些材料的困难时,问题要么是“模糊的”,要么是理论上可行的技术或预测,以科学为参考。与作为参考的项目相比,本研究仅探索了表面,并采取了任何视觉上有趣的方面,重点关注机器人的机制和运动活动(例如关节配置)。简而言之,“外观”是本研究关注的焦点。
生成式人工智能 (AI) 的出现为各个领域带来了变革潜力,使创建复杂逼真的数字内容成为可能。然而,这一技术飞跃引发了重大的道德问题,必须加以解决,以确保负责任地部署 AI 系统。本文深入探讨了生成式 AI 的社会影响,例如大型语言模型和深度伪造,并仔细研究了它们带来的道德挑战,包括偏见的传播、错误信息的传播和对人类能动性的破坏。我们提出了一个强调透明度、问责制、安全性和人为监督的道德框架来应对这些挑战。实施该框架的建议包括对合成媒体进行水印等技术措施和平衡监管与促进有益创新的政策干预。通过倡导将道德考虑纳入技术设计和公司治理的综合方法,本文旨在促进符合社会价值观和人权的可信赖 AI 系统的开发。
