在当前的在线环境中,个人需要维护几十个不同的用户名和密码,每个与之交互的网站一个。这种方法的复杂性对个人来说是一种负担,并且鼓励重复使用密码等行为,从而使在线欺诈和身份盗窃更加容易。与此同时,在线企业面临着管理客户帐户的成本不断增加、在线欺诈的后果以及由于个人不愿意创建另一个帐户而导致的业务损失。此外,企业和政府都无法在线提供许多服务,因为他们无法有效识别与其互动的个人。欺骗性网站、被盗密码和被盗帐户都是身份验证机制不充分的症状
人工智能 (AI) 的应用范围非常广泛,造成危害的可能性也非常大。人们越来越意识到人工智能系统的潜在风险,这促使人们采取行动应对这些风险,同时也削弱了人们对人工智能系统及其开发组织的信心。2019 年的一项研究 ( 1 ) 发现,已有 80 多个组织发布并采用了“人工智能道德原则”,此后还有更多组织加入。但这些原则往往在值得信赖的人工智能开发的“内容”和“方式”之间留下了空白。这种差距导致了可疑或道德上可疑的行为,这让人们对特定组织以及整个领域的可信度产生了怀疑。因此,迫切需要具体的方法,既能让人工智能开发人员防止危害,又能让他们通过可验证的行为证明自己的可信度。下面,我们将探讨创建生态系统的机制(摘自 ( 2 )),在这个生态系统中,人工智能开发人员可以赢得信任——如果他们值得信赖的话。更好地评估开发人员的可信度可以为用户选择、员工行为、投资决策、法律追索权和新兴治理制度提供信息。
由爱达荷大学图书馆用户于 2022 年 5 月 27 日从 http://direct.mit.edu/dint/article-pdf/doi/10.1162/dint_a_00119/1987143/dint_a_00119.pdf 下载
在我的整个职业生涯中,我形成了一种领导哲学,我称之为三个 P:激情、个性和人。如果你是一个充满激情的领导者,试图为你的士兵树立最好的榜样,他们会从中受益,因为他们会看到你对服务感到兴奋和热情。你还必须有个性,也就是说要和蔼可亲、谦逊。这为士兵和其他领导者每天对你的期望定下了基调。最后一个 P 是人。一个充满激情的仆人式领导者应该始终考虑每件事的人力成本。有时,领导者可能会专注于任务完成,而忽视其对组织、人员及其家人的影响。
1.1 机构和当局的可信度要求 ����������������������������������11 1.1.1 HLEG 要求 ������������������������������������������������������������������������������������������������������12 1.1.1.1 人力和监督 ����������������������������������������������������������������������������������������������12 1.1.1.2 技术稳健性和安全性 ����������������������������������������������������������������������������������������������12 1.1.1.3 隐私和数据治理 ������������������������������������������������������������������������������������������������13 1.1.1.4 透明度 ����������������������������������������������������������������������������������������������������������������13 1.1.1.5 多样性、非歧视和公平 ������������������������������������������������������������������������������13 1.1.1.6 社会和环境福祉 ��������������������������������������������������������������������������������14 1.1.1.7 问责制 ������������������������������������������������������������������������������������������������������������������������14
本文致力于探讨现代社会即将大规模实施神经网络的必要性。一方面,后者将充分扩展国家机构和社会的能力,使其能够更高效地执行多项任务。然而,对民主机构的重大威胁迫使社会提出可靠的人工智能 (AI) 的概念。作者探讨了科学界和国际社会应对未来不正当数字渗透所必需的一种可信人工智能的新概念。作者解释了数字化转型在多大程度上是强制性的,强调了人工智能应用带来的诸多危险。本文的目的是研究当局滥用神经网络的潜在危害以及对可信人工智能的依赖对它们的抵制。通过研究数字化转型和人工智能技术使用的各个方面,作者将与人工智能出现相关的危险形式化,并提出了一种使用可信数字保护技术的方法。
AI 应用程序的好坏取决于底层数据。要赢得信任,首先需要确保有足够的高质量、有代表性的数据,以便 AI 模型能够有效学习,并且这些模型经过测试和训练,以确保准确性。有时,这可能包括升级数据基础设施以实现更安全的存储,或将碎片化数据转换为更易于访问和互操作的格式。此外,公司必须实施强大的安全措施,以确保敏感的患者数据保持私密并免受网络威胁。这些措施应包括建立明确的访问和使用控制、进行员工培训、进行渗透测试以及在风险出现时设置升级程序。
信息在分布式决策实体(包括飞机、地面基础设施和人类决策者)之间流动。自主机器或代理需要信息来支持其决策过程,就像人类一样。代理(机器和人类)之间交换的信息的完整性对于此类代理做出值得信赖的决策的能力至关重要。根据完整性较差的信息做出决策的代理可能会导致不确定和不理想的结果,从而导致对系统的不信任。Mayers 等人。指出“诚信与信任之间的关系涉及信任者对受托人遵守信任者认为可以接受的一套原则的看法。” [Mayers 等人,1995] 虽然 Mayers 等人。谈论的是人与人之间的信任关系,但在机器与机器和人与机器关系中的信息交换中也存在同样的关系。
在当今的电信环境中,创新服务不仅必须在最短的时间内推出,而且还必须具有更大的灵活性,以便于将来升级和轻松维护服务。多年来,Java Card 已证明自己是服务部署的关键技术。Java Card™ 2.1 标准由 Java Card Forum 于 1999 年初发布。与此同时,ETSI 认可在 SIM 卡中使用 Java Card™ 并为 Java Card 定义了 GSM SIM API。从那时起,Java Card 技术和 ETSI 规范一直在不断发展以应对新服务和新潜力,直到 3G 电信世界,在 ETSI 规范的第 6 版中最终确定。同时,由于现场经验以及互操作性 Stepping Stones ,智能卡之间的互操作性得到了改善,旨在处理和解决可能导致不同实现的所有不同规范解释。本指南旨在完成 ETSI 发布规范和测试套件的工作,旨在为开发人员提供有关 Java Card™ SIM 约束的信息,并为参与编写本文档的 SIM 联盟成员提供标准的通用解释。本指南的目标读者是网络运营商、无线服务提供商以及任何对可互操作 Java Card 小程序开发感兴趣的人。与 SUN Microsystems 的 Java Card 小程序开发人员指南一起使用,
如果至少有一个更改(即至少一个设备参数值与制造过程结束时记录的原始值不同),则应用程序将显示相应的消息并突出显示所有检测到的更改。检测到的更改列表将位于表格顶部,然后是包含所有突出显示更改的参数的列表。可以通过右键单击所需选项将原始值或更改的值复制到剪贴板。
