到 2027 年,网络犯罪的损失预计将高达 23.8 万亿美元。这主要是因为没有哪个计算机网络是没有漏洞的。在联网计算机中,个人数据的万无一失的网络安全被认为几乎是不可能的。量子计算机 (QC) 的出现将使网络安全恶化。QC 将大大缩短计算时间,从几年缩短到几分钟,为数据密集型行业带来福音。但 QC 会使我们当前的加密技术容易受到量子攻击,从而破坏几乎所有现代加密系统。在具有足够量子比特的 QC 出现之前,我们必须准备好量子安全策略来保护我们的 ICT 基础设施。后量子密码学 (PQC) 正在全球范围内被积极推行,以防御潜在的 Q-day 威胁。美国国家标准与技术研究所 (NIST) 通过严格的流程测试了 82 种 PQC 方案,其中 80 种在 2022 年的最后一轮测试后失败。最近,剩下的两种 PQC 也被瑞典和法国的密码学家团队破解,这使得 NIST 的 PQC 标准化流程面临严重危险。由于所有经 NIST 评估的 PQC 均失败,因此迫切需要探索替代策略。尽管网络安全严重依赖于密码学,但最近的证据表明,它确实可以使用零漏洞计算 (ZVC) 技术超越加密。ZVC 是一种与加密无关的绝对零信任 (AZT) 方法,它可以通过禁止所有第三方权限(大多数漏洞的根本原因)使计算机具有量子抗性。 AZT 在传统系统中是无法实现的,因此,一个经验丰富的欧洲合作伙伴联盟致力于构建紧凑、固态的设备,这些设备坚固、有弹性、节能、没有攻击面,可以抵御恶意软件和未来的 Q-Day 威胁。
我们还知道,人和机器都会发生故障,所以总会有不正常的情况。事实上,新的安全系统策略是基于故障是系统故障的理念(ASSP,2017)。因此,需要采用全面(系统)的方法来识别和控制故障,并确保我们的工作场所万无一失,也就是说,当故障发生时,不会造成危害。这些方法必须解决包括机械和结构(技术)、行为、人与工作互动(社会技术)、文化(包括组织和个人)和复杂系统(弹性;Pillay,2015)等因素。随着我们管理的系统变得越来越复杂,我们用来控制系统安全的管理系统也变得越来越复杂。事情偏离了我们的计划,我们得到了(通常是不幸的)意外。这给我们带来了如何系统地管理我们的安全管理系统的挑战。质量界为这一挑战提供了绝佳解决方案,特别是二战后质量先驱 Walter Shewhart 和 W. Edwards Deming。Shewhart 和 Deming 带来了计划-执行-检查-行动 (PDCA) 循环,这是许多成功质量计划所固有的循环。PDCA 源自伽利略和弗朗西斯·培根的科学方法。20 世纪 30 和 40 年代,Shewhart 将该方法改进为三个步骤:规范、生产和检查。在日本重建工作中,Deming 进一步发展了 Shewhart 的思想,使其成为 PDCA 的四个步骤 (Moen,2009)。从那时起,PDCA 不仅发展成为质量的基础,也成为所有类型管理系统的基础。ANSI/ASSP Z10、CSA Z1000 和 ISO 45001 均基于 PDCA 方法。不幸的是,通过工作场所受伤,我们了解到人们并没有按照我们想象的那样做。在这种情况下,伤害本身会关闭我们的反馈回路,并产生可能正确实施或可能不正确的(反)反应。
1。AI的人类写作模仿:生成的AI模型经过训练,可以产生与人写作非常相似的文本。这使得探测器很难区分AI生成的和人编写的内容,尤其是当AI输出精心制作时。2。上下文依赖性:AI检测器通常依赖于上下文依赖的模式或功能。人类撰写的文本可以表现出相似的模式或样式,因此准确识别AI生成的内容的挑战。3。微妙的差异:虽然AI可能会产生带有明显符号的文本(例如某些重复模式或不自然的措辞),但这些差异通常是微妙的,并且在所有类型的内容中都不一致。这两个会导致误报(AI标记为人写)和假否定性(AI内容未被发现)。4。不断发展的AI模型:随着生成AI模型的改善,它们变得更好地避免了训练探测器的模式。这为检测器创造了一个移动的目标,该目标可能难以快速适应新的AI写作技术。5。缺乏通用特征:没有单一的万无一失的指标AI生成的内容。ai可以用各种样式,音调和结构编写,从而使探测器很难依靠固定的,普遍可识别的特征。6。培训数据偏差:AI检测器通常是在特定数据集上训练的,如果数据不涵盖广泛的AI写作可能性,则检测器可能无法识别AI生成的文本的某些样式或变体。7。连贯但浅的输出:AI可以产生语法正确且相干的文本,但有时缺乏深刻的理解或细微差别。检测器可能很难将这种类型的浅但合理的文本与真实的人写作区分开。
级别 1 — 操作标准化。操作标准化的目的是减少生产不同部件所需的操作数量。这也会减少所需的工具数量和设备数量。每台机器的操作类型减少会减少单台机器的设置时间,从而最大限度地提高运行时间与空闲时间的比率。为了促进标准化组件和操作的任务,工程师应使用标准组件并系统地查阅机械加工手册,这些手册是工程选择的参考[11]。设置时间分析。减少设置时间对于解决严重影响生产过程灵活性的问题至关重要。应用 Shingo 的 SMED(单分钟模具更换[12])方法,丰田得以将压力机的设置时间从几个小时缩短到几分钟。较短的设置时间是实现有效重复制造流程的必要条件,也是实现 2 级和 3 级目标的主要因素之一。装卸时间分析。减少装卸时间(在自动化工厂中指码垛和卸垛时间),旨在最大限度地提高运行时间与装卸时间之间的比率。减少这些时间的措施与工件几何形状、所用夹具和自动装卸设备有关。柔性制造系统 (FMS) 的装卸时间减少可减少操作员数量,并影响托盘传送带的尺寸。更一般地说,旨在减少通用机床上装卸时间的操作(通过使用自动装载机实现)不得导致设置时间增加,否则会降低机器的灵活性。防错装置。防错装置,字面意思是万无一失的装置,旨在避免人为错误,从而提高工作质量和安全性。在混合型号生产线中可以找到许多防错装置的应用示例,其中交替使用不同的型号可能会导致频繁的装配错误。
操作标准化。操作标准化的目的是减少生产不同部件所需的操作数量。这也会减少所需工具和设备的数量。每台机器的操作类型的减少会减少单台机器的设置时间,从而最大限度地提高运行时间与空闲时间的比率。为了便于标准化组件和操作,工程师应使用标准组件并系统地查阅机械手册,这些手册是工程选择的参考[11]。设置时间分析。减少设置时间对于解决严重影响生产过程灵活性的问题至关重要。应用 Shingo 的 SMED(单分钟模具更换[12])方法,丰田将压力机的设置时间从几个小时缩短到几分钟。较低的设置时间是实现有效重复制造流程的必要条件,也是实现 2 级和 3 级目标的主要因素之一。装卸时间分析。减少装卸时间(在自动化工厂中指码垛和卸垛时间)旨在最大限度地提高运行时间与装卸时间之间的比率。减少这些时间的措施与工件几何形状、所用夹具和自动装卸设备有关。柔性制造系统 (FMS) 的装卸时间减少可以减少操作员数量并影响托盘传送带的大小。更一般地说,通过使用自动装载机减少通用机床上装卸时间的措施不得导致设置时间增加,否则会降低机器的灵活性。防错装置。防错装置,字面意思是万无一失的装置,旨在避免人为错误,从而提高工作质量和安全性。防错装置的许多应用示例都出现在混合型号生产线中,在这些生产线中,交替使用不同的型号可能会导致频繁的装配错误。
不可否认,人工智能系统在我们日常生活中无处不在:我们与人工智能助手交谈,我们让算法驾驶我们的汽车,我们寻求他们的建议来决定购买什么,等等。虽然我们在构建相当准确和高效的人工智能系统方面在各个领域取得了重大进展,但在大多数情况下,仍然需要人类的监督和/或干预。人类和人工智能之间需要合作的原因有很多。一方面是他们能力的互补性。虽然人工智能可以查看大量数据并做出数学上精确的推断,但它仍然缺乏人类理解抽象概念和用更少的数据进行概括的能力。另一方面,一个关键的考虑因素是,算法并非万无一失,这需要这种人类监督,特别是在高风险决策中。已经有一些案例表明,由于训练数据有限或有偏差,算法推荐存在偏差。人们还报告了由于技术故障导致算法推荐错误的情况 [2]。为了有效利用互补能力并有效减少算法错误,我们需要设计出人类用户能够充分理解并适当信任的系统。为此,研究人员强调了提高模型可解释性和可解释性的重要性。这些努力的重点是以一种有助于人类理解模型的方式传达模型的工作和最终建议。然而,Lakkaraju 和 Bastani [21] 以及 Bansal 等人 [3] 最近的研究表明,用更多信息或解释补充算法决策并不一定能帮助人类用户做出更好的决策。这种观察的一个可能解释是,人类无法建立与算法能力相适应的信任。正如 Huang 和 Fox [17] 所说,现实世界中的决策是基于理性计算(在可用信息和心理资源的限制范围内)和信任的混合。虽然可解释性努力力求使模型更易于理解,但它们并没有积极考虑人类对模型的依赖或信任。在这篇评论中,我们强调了在设计人机有效协作时需要考虑人类信任的问题。在这篇文章中,我们回顾了人机交互方面的工作,重点是了解人类如何以及何时信任机器。1
网络哄骗:人工智能时代的助推策略 Amit Adarkar,益普索印度国家经理兼益普索亚太经合组织运营总监 & Geeta Lobo,益普索印度社交智能分析与科学执行总监 新的一年又到了,我们该制定美好的计划,让自己更健康、更自律、更博学、更善良、更具社会责任感了。如果我们有办法保持热情不动摇;有正确的推动力,让我们重回正轨,有万无一失的方法让我们坚持自己的决心,那会怎样?这就是基于人工智能的助推所带来的希望的本质,至少在原则上如此。 人工智能驱动的助推 助推策略是关于在环境中做出小的、具有成本效益的改变,从而导致行为的改变。通过研究如何呈现选择,助推会将你推向被认为是好的结果,而不会限制选择或侵犯你的自由选择意志。在收银台询问您是否愿意为社会事业捐款,在纳税申报截止日期前几周询问您对国家经济发展的贡献,这些都是“助推”的例子。基于人工智能的“助推”将成为改变行为的更强大的杠杆。人工智能驱动的“助推”会从个人之前的反应中吸取教训,在正确的时间部署正确的影响。事实上,这些深度学习算法还可以从其他人对“助推”的反应大数据中学习。基于人工智能的“助推”不仅对反应具有动态敏感性,从新兴数据中学习的能力还意味着系统会随着时间的推移提供越来越有效的“助推”。有了人工智能,你不仅会被礼貌地询问你是否愿意为某项慈善事业捐款;信息、视觉效果、时间和呈现给你的事业本身都会经过专门设计,让你掏出钱包。大规模智能推送 大规模设计针对个人的特定影响的能力可能看起来像是未来的愿景,但所需的数据和技术可能已经存在。考虑以下实现这一转变的推动因素:
在过去的一年里,人工智能机器人 ChatGPT 以其回答问题、撰写论文甚至编写软件的能力让人们眼花缭乱。在美国听说过 ChatGPT 的 13 至 17 岁青少年中(大多数),19% 表示他们曾用它做作业。ChatGPT 和 Bard、Meta AI 等其他聊天机器人都基于大型语言模型(简称 LLM)。这些模型通过输入大量来自互联网的文本,经过训练可以编写出非常像人类的语言。虽然这些文本包括路易丝·格丽克的诗歌、奥普拉最爱的礼物指南和《纽约时报》的文章,但正如我们所知,它也包括虚假、诽谤、暴力和恐怖内容。作为一种安全措施,大型聊天机器人的创建者还训练它们拒绝提供不适当或有害的信息,比如如何窃取某人身份的分步说明。但训练并非万无一失,人们已经利用了聊天机器人的弱点。在本期中,物理学和资深作家 Emily Conover 深入探讨了计算机科学家为使聊天机器人走上正轨所做的努力(第 18 页)。Conover 解释说,这是一个巨大的挑战,部分原因是这些 LLM 仍然很新,科学家们才刚刚开始了解聊天机器人的弱点。随着 LLM 融入日常产品或承担地铁系统等任务,挑战将变得更大。现实情况是,尽管 LLM 有时听起来像人类,但实际上不是。在阅读 Conover 的文章时,我学到了一个有趣的术语“随机鹦鹉”。华盛顿大学的计算语言学家 Emily Bender 和同事用它来解释,虽然 LLM 可以将单词编译成散文,但他们不理解他们“写”的内容的含义,因此无法理解它是否不准确或不道德。他们只是在鹦鹉学舌。真正的鹦鹉和研究它们的科学家可能会对这个术语感到反感。鹦鹉以能够模仿人类的语言而闻名。现在,科学家们发现鹦鹉可以做更多的事情,包括使用工具、制作工具集、解决复杂的难题,有时甚至能理解我们说的话。正如特约撰稿人 Erin Garcia de Jesús 报道的那样,有些鹦鹉可以克制自己,放弃现在的小奖励,以便以后获得更大的奖励(第 24 页)。长期以来,许多科学家低估了鹦鹉——甚至认为它们很笨——因为它们的大脑不像人类和其他灵长类动物的大脑那么大、那么复杂。最近,科学家们发现,鹦鹉的小脑袋里挤满了神经元,具有与灵长类动物大脑类似的特征。鹦鹉智力的许多谜团仍有待解决,包括鸟类究竟是如何以及为什么进化出这些惊人的能力的。但找到答案最终可能有助于我们更好地理解我们自身智力的起源,以及我们遇到的其他形式的智慧。现在,我们可以惊叹于鹦鹉的欢乐、它们的美丽,以及它们似乎在用工具打开和吃海芒果时所获得的乐趣。——南希·舒特,主编
2024 年夏季贡献者:Suzanne Tapp、Alec Cattell、JaWana Green、Matt Gregory 和 Brian Quinn 我们关于人工智能的讨论通常集中在学术不端行为和人工智能滥用上。人工智能指南和资源委员会建议在考虑人工智能检测工具时要格外小心。最重要的是,目前人工智能检测工具无法提供确凿的证据。鉴于学生可以轻松使用生成式人工智能工具,我们发现自己正处于教育的十字路口。人工智能检测器的已知问题为了回应对学术诚信的担忧,我们看到声称能够检测人工智能使用情况的公司激增,例如 GPTZero、ZerGPT、CrossPlag 和 PassedAI。但我们也看到了人工智能人性化产品,例如 Bypass GPT、HIX Bypass、Humbot.ai、Undetectable AI 和 WriteHuman AI。当前版本的人工智能检测软件远非万无一失,具有很高的误报率(Edwards,2023 年;Fowler,2023 年)。 ChatGPT 背后的公司 OpenAI 甚至关闭了自己的 AI 检测软件,原因是其准确性较差 (Nelson, 2023)。AI 检测器对于非英语母语学生尤其不可靠 (Myers, 2023),通常会因为衡量写作复杂程度的困惑度分数较低而将他们的作品不公平地认定为 AI 生成的。然而,有一些有希望的新证据表明,工具在检测 AI 编写的内容方面可能会变得更加准确。例如,Jiang (2024) 从研究生入学考试 (GRE) 写作评估中抽样了大规模数据,AI 生成的写作准确度接近完美,并且没有证据表明对非英语母语人士存在偏见。无法预测 AI 检测器未来的可靠性,尤其是随着新版本的 AI 生成器不断改进。目前,底线是 AI 检测器只能预测某篇文章是否是 AI 生成的,而这些预测不足以支持在涉嫌学术不诚实案件中做出决策。AI 工具能做什么?根据堪萨斯大学教学卓越中心(“谨慎使用人工智能检测器”,2024),人工智能工具可以表明教师可能需要与学生过去的作业进行比较,以发现写作风格和质量的差异。被标记的材料也可能表明教师需要与学生交谈,并解释检测器已表明部分材料是人工智能生成的。事实上,我们可以说,当怀疑未经授权使用人工智能时,真正的第一道防线是学生和课程讲师之间的对话。关于学生的工作以及学生如何完成作业的简单非指责性对话可以提供大量有关人工智能潜在用途的信息。考虑到我们的教师和讲师在其领域的知识渊博,很容易判断某个学生是否具备必要的知识
大学,德拉敦 - 248007,北阿坎德邦,印度 2 比萨大学航空航天工程系,比萨,意大利 摘要 本文展示了通过种植新鲜蔬菜并在模拟生长条件下生产它们来支持人类在太空中生活的可能性。向空间站和载人航天任务供应新鲜蔬菜非常复杂,而且成本高昂。在太空中种植植物可能很困难,因为太空中没有重力,没有土壤、肥料等。水培是一种不使用自然资源(即土壤、空气、天然肥料等)来种植植物的先进技术。它与温室相结合,技术先进,集约化程度高。水培技术在封闭室内进行,使用蒸气压差 (vpd) 控制器、营养流和水流控制器来控制空气、温度和湿度。一个主要问题是微重力,它导致根的生长方式与土耕不同。在微重力和低重力条件下,太空农业采用各种方法,如水培、气培等。本文重点介绍水培设计、结构、操作、技术、适合植物的基质、pH 值、水位以及水培技术所需的控制器。本文的主要目标是建立一个完全自动化、坚固且万无一失的初步设计,并找到解决由于重力和真空条件引起的基质和多光谱照明问题的最终解决方案。全自动系统有助于减少劳动力并为宇航员提供健康的食物。关键词:水培、太空农业、宇航员、植物、营养素、蒸汽压不足控制器 I. 简介由于太空任务补给的成本效益高,在太空种植蔬菜具有巨大的潜力。太空农场的存在将有助于创造自然环境,因为植物可用于循环废水、产生氧气并持续净化空气。除了航天器中占很大一部分重量的宇航员,他们还必须携带罐装太空食品,而这些食品在宇航员的饮食中营养和维生素含量很低。通过太空农业,可以在太空中生产出味道和质量更好的新鲜蔬菜,并减少宇航员饮食中的维生素缺乏症。通过将宇宙飞船改造成具有水文循环和养分循环的人工生态系统,太空农业可以成为现实。能否定期为机组人员提供氧气、水和食物,同时几乎不需要从地球进行补给,将决定太空是否可以殖民。地球上种植植物作物是为了支持这些任务,因此建立以植物为基础的食品生产系统对于维持