在其第二任期内,总统佐科·维多多通过其在数字化转型方面的远见卓识的领导力(这也反映在印尼在 2020 年 G20 峰会上的影响力)推动了一项雄心勃勃的全国数字化转型计划。由通信和信息部牵头的 2021-2024 年印尼数字路线图侧重于四个战略领域:1) 实现数字基础设施现代化,2) 加速数字政府建设,3) 加强数字经济,重点吸引和支持微型、小型和中型企业 (MSME),以及 4) 加强其数字社会,以增加对数字创新的吸收,重点是提升所有印尼人的基本能力(例如数字安全)到更高级的能力(例如云计算、人工智能等领域的专业技能提升)。
这项工作介绍了可信和安全的人工智能系统 (TAIS) 的生命周期。我们考虑在 TAI 生命周期中应用风险管理框架 (RMF),以及这如何影响在 AI 系统开发的各个阶段所做的选择。AI 系统的新兴要求超越了传统的软件工程 (SE) 开发周期的设计、开发和部署 (DDD),其中测试、评估、验证和确认 (TEVV) 起着至关重要的作用。特别是,SE 中的额外挑战是 AI 系统通常是:(i) 数据驱动的,(ii) 可以学习和 (iii) 具有自适应性。此外,考虑 AI 系统对用户和更广泛社会的影响对于其可信和安全的部署至关重要。为了实现 TAIS,我们还考虑了测量方面,这体现在可量化指标的规范中,这些指标既能捕捉 TAI 的技术原则,又能捕捉社会技术原则,使我们能够评估 AI 系统的可信度。TAI 生命周期是一个迭代和连续的过程,因此正在开发的 AI 系统正在不断发展,并且可以采取纠正措施来处理生命周期任何阶段出现的问题。
收到的日期:2024年2月20日修订日期:2024年3月19日接受日期:2024年4月21日摘要:可解释的人工智能(XAI)领域是智能AI和机器学习(ML)研究和开发的关键阶段之一。缺乏透明度和问责制在某个时候已成为一个巨大的关注,因为算法更频繁地从事高风险任务,例如医学诊断,财务和司法系统。本文旨在确定XAI在发展值得信赖的ML电动机中的作用,其中强调了可解释性和透明度的必要性,以便AI系统不仅具有强大,强大的功能,而且还可提供可信和道德。我们考虑提供ML模型透明性质并探索当前研究进步的技术,并意识到行业实际应用的样子。因此,我们解决了这些问题,并建议如何在避免风险的情况下改善AI模型,同时保持良好的绩效。我们深入分析的结果揭示了XAI在AI背景下清楚地阐明人类的信任和理解中所起的至关重要作用。关键字:可解释的AI,机器学习,可解释性,透明度,值得信赖的AI,问责制。
大型语言模型现在已经足够复杂,能够通过有说服力的论据在辩论中击败人类对手。第一代人工智能代理已经承担了许多业务运营,但公司管理层尚未达到让人工智能代理进入董事会的程度。在可预见的未来,人类干预仍将是人工智能决策层中的最高权力。
• Supports one-time pad, symmetric key and asymmetric key ciphers, key derivation, random objects, certification and some cryptographic operations • Support for Bring Your Own Key (BYOK) operations with AWS and MS Azure • Encrypted keystore with protected root of trust • Granular, hierarchical and auditable access control • Event log, audit log, date and time of transaction, management and user reports • Thousands of每个节点的端客户系统,每个节点的8,000个关键请求/分钟•参加或无人看管的安全启动
摘要 - Edge Intelligence(EI)集成了边缘计算(EC)和人工智能(AI),以将AI的功能推向网络边缘,以实时,有效且安全的智能决策和计算。但是,EI由于资源限制,异质网络环境以及不同范围的各种服务要求而面临各种挑战,这在利益相关者眼中共同影响了EI的可信赖性。本调查全面总结了可信赖的EI的特征,建筑,技术和解决方案。特别是,我们首先强调了在大型模型趋势的背景下需要值得信赖的EI。然后,我们提供了值得信赖的EI的最初定义,探索其关键特征,并为可信赖的EI提供多层体系结构。然后,我们为值得信赖的EI系统提供了能力技术。随后,我们总结了几个重要的问题,这些问题阻碍了值得信赖的EI的实现,并对最先进的解决方案进行了深入的文献综述,以实现EI的可信度。最后,我们讨论了相应的研究挑战和开放问题。
从前的算法 - 马丁·埃维格(Martin Erwig),2017年。Erwig说明了计算中的一系列概念,其中包括日常生活和熟悉故事的示例。Hansel和Gretel执行了一种算法,可以从森林中回家。电影《土拨鼠日》说明了无法解决性的问题;解决犯罪时,福尔摩斯在解决犯罪时会操纵数据结构;通过类型和抽象来理解哈利·波特世界中的魔力。印第安纳·琼斯(Indiana Jones)展示了搜索的复杂性。在此过程中,Erwig还讨论了组织数据的表示和不同的方式。 “棘手的”问题;语言,语法和歧义;控制结构,循环和停止问题;不同形式的递归;以及在算法中查找错误的规则。这本引人入胜的书可以访问计算,并显示出与日常生活的相关性。
数据民主化是一种机制,可以使每个人都能访问和使用数据进行决策,而与他们的技术专长无关。易于访问和使用数据的易用性导致AI系统的商品化及其在我们的工作和生活中的集成。我们可以使用Internet轻松连接并与AI系统进行工作或社会目的交互。例如,AI系统可以由个人和团体(例如公民或员工)用作个人数字助手,以处理数据,生成报告,调度任务,做出决策并回答问题或查询。我们的社会似乎依靠AI系统增强某些人类能力的能力,例如语音,愿景,解决问题和决策[7]。虽然AI系统似乎提供了扩展人类能力的新机会,但是必须了解AI系统的组件,属性和紧迫的问题,例如数据,算法和模型的透明度和信任度。用户必须负责任地和道德地使用这些系统,以进行合法任务,以便通过公平手段进行合理的收益。这种负责任和道德的使用涉及两个参与者 - 系统本身(围绕它们的系统和算法的可信度和透明度)[19-2-21,23-25],以及用户,即使用系统的方式。通过互动
Red Hat® 可信软件供应链 (TSSC) 是一系列功能,可在整个 SDLC 中构建安全护栏,帮助政府软件团队遵守 EO 14028(图 1)。作为 TSSC 的一部分,Red Hat 可信应用程序管道是一组 3 个模块化工具:Red Hat 开发人员中心、Red Trusted Artifact Signer 和 Red Hat Trusted Profile Analyzer。政府软件团队可以使用这些工具来提高软件工件供应链级别 (SLSA) 的成熟度级别,这是一个逐步增强软件供应链安全性的框架。SLSA 提供了一系列标准和控制措施,以防止篡改、提高完整性并使软件
当受信任的计算集团(TCG)在90年代后期开始运营时,它是为了促进对个人计算平台的信任。Intel以Intel®受信任的执行技术(TXT)的形式实施了其对测量信任的动态根源(D-RTM)的规范。信任的动态根源可实现平台状态的测量和证明,因为系统启动到了测量的发射环境(MLE)。后来,英特尔还以Intel®BootGuard(BTG)的形式实现了测量值的静态根源(S-RTM)。一起,Intel®受信任的执行技术(TXT)和Intel®BootGuard(BTG)是Intel®硬件盾牌的一部分,用于英特尔的VPRO®有能力的平台。安全性是这些功能的主要商业和公司设计价值主张,允许计算平台运营商防止信任的平台根源,并为操作系统和软件建立一个受信任和受保护的环境。