我们距离机器人在世界范围内的统治还有一段距离,但人工智能(AI)——利用大型数据集训练计算机系统做出决策和解决问题——正在彻底改变政府和社会的运作方式。人工智能具有巨大的潜力:加速创新、从数据中释放新价值,并通过将我们从单调乏味的任务中解放出来来提高生产力。人工智能可以从健康数据中得出新的推论,以促进癌症筛查的突破或改善气候建模和极端天气或紧急情况的预警系统。当我们寻求解决当今棘手问题(气候紊乱、社会不平等、健康危机)的解决方案时,人工智能将成为核心。它的核心地位要求利益相关者对人工智能进行更大的治理,并要求人工智能系统对其潜在危害负责,包括歧视性影响、不透明性、错误、不安全、侵犯隐私和剥夺权力。在此背景下,要求通过审计评估算法决策系统的影响并揭露和减轻相关危害的呼声日益高涨,同时算法审计行业和法律编纂也日渐兴起。这些都是值得欢迎的发展。审计可以提供灵活的共同监管解决方案,允许人工智能进行必要的创新,同时提高透明度和问责制。人工智能是威权国家和民主国家之间日益激烈的技术竞争的关键要素——确保人工智能负责任且值得信赖是确保民主优势的关键部分。值得信赖的人工智能的明确标准将有助于美国继续成为创新中心,并将技术塑造为民主价值观。然而,“算法审计”仍然定义不明确且不准确,无论是涉及社交媒体平台还是一般的人工智能系统。审计不充分会掩盖算法问题,风险很大
定义职业素养就像试图定义领导力——很难描述,但你知道自己何时受到过良好的领导,也知道何时与真正的职业人士有过接触。军事专业人员的明显标志之一是准备。当需要使用他们的技能时,军事专业人员已经做好准备。这种准备来自于利用机会获得经验。每个军人的生活都会有服役的机会。有些机会很平凡——“我们需要一名志愿者来领导我们的部队(你填空)行动。”有些机会更令人兴奋——“比尔今天病了。你能今天下午向将军汇报他的简报吗?”它们很少是方便的——“我知道你昨晚刚回来,但我们需要你再次出征。今天下午!”每个机会都代表着获得经验、成长和做好准备的机会。在大多数情况下,我们可以选择。我们不必自愿领导这次行动。如果没有人自愿参加,老板可能会要求我或萨莉这样做。如果我们在这么短的时间内拒绝汇报情况,没有人会责怪我们。毕竟,这不是我们的工作。我们可能很快就会再次逃避执行任务。我们当然可以想出一些借口。但如果我们做出这些选择,我们将永远失去这些机会。每个军事专业人员的背景都包括一套独特的服役机会。很多时候,它们看起来并不是特别令人兴奋或有回报的任务,但它们却拥有
本文件旨在定义组织成功所需的信息技术 (IT)。这将通过现代 IT 的综合方法来实现,其中未来建立在可持续、有弹性和安全的基础上,同时能够适应不断变化的需求和情况。地方政府的性质和日益增加的财政压力意味着 IT 的作用不能再局限于将笔记本电脑放在人们的办公桌上并提供电子邮件。需要将我们重新定位为战略合作伙伴 - 我们成为实现组织成果的关键推动者 - 导致我们在 2019 年彻底重新设计 IT 服务以应对这些挑战。随着工作场所的不断发展,IT 需要走在设计和服务提供的最前沿,使我们的组织能够继续为我们的居民提供服务。网络安全攻击的不幸和持续增加强调了通过在威胁利用我们的系统之前采取预防措施来领先于他们日益复杂的方法的必要性。我们更新后的 2023/24 网络安全战略建立在之前战略的坚实基础之上,旨在植入良好实践,确保我们的服务和我们持有的信息安全,这对于维护公众对我们工作的信任和信心至关重要。我们的云战略提供了从服务中断中恢复并保持业务连续性的弹性。好消息是,新兴和创新技术为员工和居民提供了无数的机会来改变服务。这已被几个成功的机器人和聊天机器人试点证明,现在正在扩展到人工智能的探索,这将使我们能够自动化更复杂的工作。这将引领我们的服务更高效、更具成本效益,并成为更令人愉快的工作场所——因为减少单调和重复的任务可以让同事们专注于增值、创造性和一线工作。这对我们来说是一个激动人心的时刻,我们期待着在我们的转型之旅中与大家合作。
黑洞是量子引力中令人着迷的物体。从相当平凡的初始条件(如坍缩的恒星)开始,大自然能够产生一种将短距离涨落放大到宏观尺寸的几何形状。这种时空的“拉伸”绕过了高能物理与低能物理的威尔逊解耦,使普朗克尺度动力学的深层问题与低能(思想)实验相关。1 事实上,在一对非凡的经典论文 [ 1 , 2 ] 中,斯蒂芬霍金首先论证了这种涨落的拉伸会导致黑洞蒸发,其次认为蒸发过程不符合纯态总是演化为其他纯态的量子力学原理。这个结论通常被称为黑洞信息问题,在霍金发表论文后的近 40 年里,它引发了大量的研究。信息真的丢失了吗?如果没有,那么阻止信息丢失的普朗克干涉的本质是什么?这些问题已经取得了重大进展,但最近的研究强调了我们仍然没有令人满意的答案。这些讲座的目的首先是尽可能多地介绍用于制定和分析这些问题的技术,其次是概述导致最近该主题研究激增的新悖论。我还将讨论一些为解决悖论而提出的建议,但我绝不会进行全面的回顾;我一直尽力将教学法置于完整性之上。当然,在目前如此混乱的领域,我对应该包括哪些材料的看法会有些特殊。一般来说,我试图给出或至少概述事物的“真实”论据。当主题的基础像这里一样受到质疑时,我认为应该尽可能避免草率的逻辑。偶尔,材料的某些细节是新的,但我不会试图引起人们对其的注意,因为这会很尴尬和乏味,而且无论如何,我的“改进”大多是表面的。
CSCW 领域通过 CSCW 文献中出现的大量“工作场所研究”(Anderson、Button 和 Sharrock,1993 年,Heath 和 Luff,1992 年;Egger 和 Wagner,1993 年,Button,1993 年),成功地帮助信息系统从业者更细致地了解日常工作环境中人类沟通、合作和协作的复杂性。虽然这些研究展示了人类在各种工作环境中的合作活动的丰富性,但它们对系统(重新)设计的经验教训并不那么明显。首先,许多这些优秀的研究都专注于非常专业的工作协调中心,而且并不总是能立即看出所描述情况的哪些方面与使用技术的更平凡的工作环境具有普遍相关性。我们仍在学习如何通过这些研究及其提出的问题来指导我们的设计。CSCW 中讨论过的一个重要概念,在许多研究中都显示出其重要性,即需要某种形式的共享信息空间,人们可以在其中进行合作。究竟是什么构成了这个空间,这一点常常没有明确说明,但在大多数提到这个术语时,人们都认识到这个概念远远超出了某种形式的公共数据库中对象或事件的简单连接。在本文中,我们努力分析公共信息空间 (CIS) 的概念,并通过示例展示一些
摘要 - 科技在生活的各个方面都发生了翻天覆地的变化,我们看待事物和生活的方式也发生了翻天覆地的变化。与前辈相比,Z 世代的成长方式有着明显的不同。他们从很小的时候就接触到了快速变化的技术。Z 世代似乎很好地吸收了这些变化,以至于他们就像鱼一样,在周围发生的变化中畅游。有许多颠覆性技术的例子,它们取代了现有的技术,导致旧技术变得过时。颠覆性技术的一个例子就是人工智能,计算机或机器可以以某种方式进行编程,使它们能够复制人脑的思考、推理和决策能力,从而提供行动方案或解决方案。各种任务,如决策、预测,这些任务本质上是重复性的,可以使用机器学习和深度学习等技术委托给机器的人工智能。除了可以解放宝贵的决策时间(这些时间可以教给机器)之外,人工智能还提供了其他一些好处。人工智能流行的各个领域是一个讨论话题。认识到这个时代的需求,需要鼓励对人工智能可以进一步应用的领域进行大量研究。公众大多只知道与人工智能相关的术语。关于人工智能如何影响当今人类生活方式的研究很少。还可以研究受访者对人工智能工作原理的认识。当前的研究文章重点介绍了人工智能的基础知识和组成部分、人工智能的主要应用领域以及数据过载的副作用。应该为人工智能的进步做大量工作,特别是关于衡量普通人对全新复杂事物的认识和准备程度,而这些事物以简化的方式摆在他们面前。人工智能走进每个人的生活的时代已经不远了。关键词——人工智能、颠覆性技术、机器学习、深度学习。
在计划的证明中将有足够的进步,以至于验证原始词将被视为平凡的,并且对任何新提出的算法都是有力的要求。尽管有这种乐观,但大多数提交了NIST Quantum cryp-tography标准化过程[5]在其开发中没有记录在其开发中使用计算机辅助加密。的确,只有两个提交的NTRU Prime [15]和Classic McEliece [8]提到了对改进其设计的任何潜在使用。NTRU Prime支持文档指出[15],该方案的设计选择使其对其安全性属性更容易正式验证,并且作者已经开始努力验证针对参考信息的优化NTRU Prime实现[14]。经典的mceliece规范表明,需要对量子安全性的验证证明,并提到了对定时攻击的防御措施正式验证的潜力。此外,在评估迄今为止为标准化提出的任何方案评估时,计算机辅助的形式技术还没有太多使用。最近,NIST得出了其标准化过程的第三轮。在第三轮之后,未选择其余的基于代码的候选者进行标准化,但所有这些候选者都被转移到第四轮[1]。基于ISEGEN的方案Sike也已进入第四轮,但随后看到了对其潜在的硬问题的成功攻击[21]。如果选择了任何第四轮KEM候选人进行标准化,则它们很可能是基于代码的,这会激发这些候选人的进一步审查。剩下的基于代码的候选人的安全性知之甚少,尤其是经典的McEliece,这已经长期研究了。因此,其他标准将在评估和区分这些方案中起重要作用。我们认为,在此阶段,应用计算机辅助密码学的工具来研究这些方案至关重要。首先,使用这些工具进行审查和验证的每种方案的不适当性可能是评估的标准。其次,证明计划的设计或实施已被验证在该方案中进一步提供了解决方案。在这项工作中,我们专注于应用计算机辅助的加密技术,以开发经典的McEriece计划。我们的主要重点是将SAW/Cryptol工具链[25,20]应用于经典的McEliece参考实现。我们还使用互动定理供属依据来报告我们最近的e Ort在经典McEliece设计的基本方面的验证中。
如今,计算和通信已嵌入到灯泡和厨房水龙头等普通产品中。这些功能据说是物联网 (IoT) 的产物。物联网带来了新的机遇,但也带来了可信度方面的新挑战 [1]。计算、架构和验证方面的变革是应对这些挑战的必然选择,尤其是如果未来三年内将有 200 亿到 500 亿台新物联网设备的预测成真的话。物联网需要什么才能获得信任?物联网将为计算行业和消费者带来哪些新机遇?为了更好地理解这一点,让我们来看看几个关键问题。首先,物联网有许多定义;然而,没有一个健全、普遍接受和可操作的定义。这是一个问题——太多不同的意见混淆了概念,使人们更难理解网络信任和物联网,因为它创造了相互竞争的网络信任观点。更糟糕的是,“物联网”是否包括任何可以贴上“智能”标签的名词,如“智能玩具”、“智能房屋”或“智能城市”?可扩展性和异质性是网络信任问题。可扩展性会产生复杂性,而复杂性无法轻易验证信任。异质性会导致“事物”与其他“事物”连接和互操作出现问题,尤其是当它们来自不同且往往相互竞争的供应商时。异质性是一个理想的经济目标,因为
在2021年,兰开斯特大学主导的研究实验室Imagination Lancaster在Petras国家卓越中心IoT Systems Security的资金中获得了一项题为《物联网参与式政策(和边缘计算)伦理学的参与性政策》的资金。该项目的目的是制定“兰开斯特物联网数据的道德使用的新的,强大的政策”,以及一个完全实施的物联网透明度准则工具,可以由正在考虑IoT部署的组织使用,并希望考虑透明度和安全性方面和道德数据使用。Trustlens,可以在此处找到这项研究的工具包。该项目特别创新的方面之一是使用设计小说和步行研讨会来收集见解。设计小说使用虚构的原型或“未来的道具”来讲述故事并创建代表可能未来的沉浸式情景;这可能是探索新技术如何改变我们的生活以及反思我们与技术的关系的高度有效方法。在这项工作中,设计小说对象代表了“平凡的期货”,但使用近距离或现有的技术尚未在兰开斯特部署。我们与市议会的员工一起穿过城市,并探索了现有传感器和化妆传感器可能影响这些公共场所的人们和其他居民的不同方式。使用设计小说,尤其是在制定政策中的优势之一是,它可以开始就问题进行对话,并让人们创造性地思考现实的限制。带IoT的目标是在兰开斯特(Lancaster)实现这一目标,我们希望将我们的研究带到英国的其他地方。我们还想探索如何向公众提供这些步行,以帮助地方议会了解当地人的思想和感受。在2022年夏天,由于EPSRC讲述了参与资金的故事,我们能够为其他四个地方当局提供这些步行研讨会。本报告整理了在2023年春季和夏季进行的这四次步行的发现。我们非常感谢创新,技术与现代化协会(SOCITM),地方政府协会(LGA)和苏格兰城市联盟,允许我们通过新闻通讯和活动中将机会传播。多次查询后,第一个散步的四个人是韦茅斯,布里德灵顿,霍恩斯洛和莫利。下面列出了每个位置的过程,真实和虚构的部署以及每个位置的一般成果。
人工智能 (AI) 系统正在成为我们日常生活中不可或缺的一部分。它们不仅用于做出日常决策,例如健康食品选择和着装推荐,还用于做出重要且有影响力的决策,例如疾病诊断、检测金融欺诈和选拔新员工。它们在自动驾驶、自动金融贷款审批和癌症治疗建议等新兴应用中的部署日益广泛,这让许多人担心当今与 AI 相关的信任程度。这种担忧是真实的,因为在当前快速发展的 AI 系统中,对抗性攻击、偏见和缺乏可解释性已经暴露出现代 AI 系统的许多弱点。因此,构建“可信赖的 AI”系统的机制和方法非常重要。构建可信赖的 AI 系统需要了解模型是否有偏见。偏见一直是现代 AI 系统的一个关键致命弱点。从人脸识别到语言翻译,许多应用都显示出系统存在高度偏见,不同组和测试集之间的性能不一致就是明证。这对此类系统的公平性和可问责性有着重大影响,具有极其重大的社会影响。可解释性和可解释性是此类系统在许多不同情况下的必要条件,例如执法和医疗,在这些情况下,黑箱决策是不可接受的。尽管现代人工智能系统报告的准确度很高,但它们无法向人类解释其决策过程以及失败或成功案例的原因。除了高精度之外,隐私和安全对于人工智能的成功也至关重要。最近的研究表明,人工智能算法可以利用从社交媒体中提取的信息来对模糊的人脸进行去匿名化,并通过监控摄像头促进不必要的监视。此类人工智能应用既带来了挑战,也带来了机遇:虽然监控系统增强了个人和整个社会的安全,但它们易受攻击和破坏,也为滥用提供了机会。对抗性攻击尤其给用户带来了巨大的负面印象,认为人工智能系统很容易被欺骗。作为研究人员,我们需要建立和推广一个严格的框架来阐述对抗性机器学习中的问题,评估各种对抗性攻击下的影响和后果,并描述确保人工智能模型安全的属性。正如在许多领域所观察到的那样,开放性有助于释放更大的潜力。许多人工智能系统不披露模型的谱系、训练数据和性能细节。需要进行更多研究来解决系统披露的共同最低可接受做法。数据和模型归属是信任人工智能系统的关键组成部分。准确描述训练数据、架构和可靠的测试条件对于保证在预定义范围内的性能水平、设定用户期望以及潜在解释潜在偏差和故障至关重要。此外,特别是在由多个组件组成的复杂 AI 系统中,从一个特定模型中归因于给定的预测或信号对于可解释性和安全性至关重要。能够可靠地识别 AI 的签名