本文全面探讨了针对大型语言模型(LLM)的安全威胁引起的道德挑战。这些复杂的数字存储库越来越多地整合到我们的日常生活中,使其成为攻击的主要目标,这些攻击可以损害其培训数据和数据源的机密性。本文深入研究了对社会和个人隐私的这种安全威胁的细微伦理影响。我们仔细检查了五个主要威胁,包括注射注射,越狱,可识别的信息(PII)暴露,性明确的内容和基于仇恨的内容 - 超出了仅仅标识,以评估其关键的道德后果以及他们为强大的防御策略创造的紧迫性。对LLM的不断依赖强调了确保这些系统在道德准则范围内运作的关键需求,尤其是因为它们的滥用可能导致重大的社会和个人伤害。我们提出了概念化和开发针对LLMS量身定制的评估工具,该工具将达到双重目的:指导开发人员和设计师在测试阶段的LLM Chatbot响应的伦理学维度进行审查。通过将LLM的反应与人类在道德背景下的人类期望的反应进行比较,我们旨在辨别AI行为与更广泛的社会所拥有的道德价值一致的程度。最终,本文不仅强调了LLMS带来的道德问题;它还突出了培养对这些系统的信任的道路。
基于变压器的LLM的潜力因其依赖广泛的数据集而受到隐私问题的阻碍,可能包括敏感信息。诸如GDPR和CCPA之类的监管措施呼吁使用强大的AU介绍工具来解决潜在的隐私问题,并使用会员推理攻击(MIA)是评估LLMS隐私风险的主要方法。与传统的MIA方法不同,通常需要对其他模型进行计算进行计算训练,本文介绍了一种有效的方法,该方法通过在嵌入空间中添加随机噪声来为目标样本提供嘈杂的邻居,仅在嵌入式空间中添加随机噪声,要求仅在推论模式下操作目标模型。我们的发现表明,这种方法与采用阴影模型的有效性密切相匹配,显示了其在实践隐私审核场景中的能力。
此定义直接遵循了第一个介绍“大语言模型”概念的论文:[1,2],并代表了LLMS功能平稳缩放的规模,因为它们的大小从100m增加到1000b参数[3,4]。此定义意味着虽然原始变压器不是LLM,但基于RNN的Elmo是。同样,通常用于文本分类而不是生成的BERT模型是LLM,就像翻译调节的T5一样。在LLM系列中包括较小的模型,我们还可以将历史上视为LLM的模型包括在内,例如具有6600万参数的Distilbert,甚至具有12M参数的Codex模型。同样,这意味着我并没有区分LLM与生成代码,二进制,通过搜索引擎请求或接受图像作为输入的文本的文本。
摘要:生成的人工智能已成为许多人生活中不可或缺的一部分。大型语言模型(LLM)在科学和社会中的普及越来越多。虽然众所周知,训练这些模型需要显着的能量,但推论也有助于其总能源需求。因此,我们通过研究推理的效率,尤其是在计算能力有限的本地硬件上,分析了如何尽可能可持续地使用它们。我们开发了用于量化LLM在边缘的效率的指标,重点是最有影响力的因素质量,时间和能量。我们比较了边缘上三种不同的最生成模型状态的性能,并评估生成的文本的质量,用于文本创建的时间以及能量需求降低到令牌水平。这些模型在质量水平上达到73%,3%和85之间,每秒产生1、83至3、51令牌,而在没有GPU支持的情况下,在单板计算机上消耗0、93和93至1、76 <,76 <,⌘,每张令牌的能量。这项研究的发现表明,生成模型可以在边缘设备上产生令人满意的结果。但是,在将它们部署在生产环境中之前,建议进行彻底的效率评估。
在机器翻译的域内,性别偏差被定义为MT系统产生翻译的趋势,这些翻译反映或永久化了基于文化和社会偏见的刻板印象,不平等或假设(Friedman和Nis-Senbaum,1996; Savoldi等,20221)。Given that the presence of such bias can lead to harmful con- sequences for certain groups — either in repre- sentational (i.e., misrepresentation or underrepre- sentation of social groups and their identities) or allocational harms (i.e., allocation or withholding of opportunities or resources to certain groups) — (Levesque, 2011; Crawford, 2017; Lal Zimman and Meyerhoff, 2017; Régner et Al。,2019年),这对于彻底调查和减轻其发生至关重要。尽管如此,解决性别偏见是一项多方面的任务。性别偏见是所有生成NLP模型中普遍存在的问题,而LLM也不例外
2国家标准技术研究所,人工智能风险管理框架(AI RMF 1.0),2023年6月,https://doi.org/10.6028/nist.ai.100-1。 3 United States, Executive Office of the President [Joseph Biden], Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence , October 30, 2023, https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-安全和信任的发展和人工智能使用。 4加州隐私保护局,风险评估和自动决策技术法规(2024年3月),https://cppa.ca.gov/meetings/materials/20240308_item4_item4_draft_risk.pdf;科罗拉多州SB 24-205,人工智能的消费者保护(2024),https://leg.colorado.gov/bills/sb24-205。2国家标准技术研究所,人工智能风险管理框架(AI RMF 1.0),2023年6月,https://doi.org/10.6028/nist.ai.100-1。3 United States, Executive Office of the President [Joseph Biden], Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence , October 30, 2023, https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-安全和信任的发展和人工智能使用。4加州隐私保护局,风险评估和自动决策技术法规(2024年3月),https://cppa.ca.gov/meetings/materials/20240308_item4_item4_draft_risk.pdf;科罗拉多州SB 24-205,人工智能的消费者保护(2024),https://leg.colorado.gov/bills/sb24-205。
“选择program_short_name,budged_appns_appn_category,tocul_budget_estimate_amount,gudvent_year,position_full_name,cost_comparison_by from Accaleity_workspace.pps.budgets_budgets_budgets_appn_ism program_short_short_short_short_name from_short_name fromage_short_name fromage_name fromage_name firpection name sageptair seption__date} Acceasition_workspace.pps_budgets_appn_ism where program_short_name {填写程序名称})和budgect_appns_appn_category = {填写apripriation category}和pregive_appns_is_is_is_ty_amounts = false = false
大型语言模型 (LLM) 的最新发展已在一系列任务中展示了其卓越的能力。然而,关于 LLM 的性质及其在执行涉及现实物理世界信息的任务时整合人类常识知识的潜力的问题仍然存在。本文通过探索如何扩展 LLM 以通过物联网传感器和执行器与物理世界交互和推理物理世界(我们称之为“渗透式 AI 1 ”的概念)来深入探讨这些问题。本文从两个层面探讨了 LLM 通过处理感官信号渗透到物理世界的能力的这种扩展。我们的初步研究结果表明,以 ChatGPT 为代表的 LLM 在我们探索中具有相当独特的能力,能够运用嵌入式世界知识来解释物联网传感器数据并对其推理物理领域的任务。这不仅为 LLM 开辟了超越传统基于文本的任务的新应用,而且还为将人类知识融入信息物理系统提供了新的方式。
Atlassian是Jira,Trello和Confluence背后的公司,在其产品中收到了大量的客户反馈。最初,他们依靠手动分析和基于NLP的工具来分类和解释这些数据。但是,随着反馈量的增长,NLP的局限性变成了瓶颈。
在大流行之后,包括CAF在内的全球军事组织遇到了重大的武力补给挑战。在公共事务中采用生成AI提供了一种有希望的解决方案,可以“更少的事情做更多”,使专业人员能够有效地产生高质量的战略内容。本研究研究了使用AI工具(例如Jasperai)在以招聘为中心的通信生产中的可行性和有效性。该实验旨在评估AI工具在创建和安排公共事务内容的效率提高,专门针对加拿大武装部队(CAF)和国防研究与发展(DRDC)军事公共事务活动量身定制。一个关键主题是招聘倡议,因为CAF自大流行1以来面临着一项武力补给挑战。配备了社交媒体管理专业知识的作者,被允许使用由Bing Copilot提供支持的政府发行的计算机,以及Jasperai和OpenAI Playground等AI组成平台。目的是评估在受控的,数字辅助的环境中内容生产的平稳性和质量,为传播公共事务消息传播的创新实践铺平了道路。本文提出的研究问题是:“军事公共事务专业人员如何在不牺牲Stratcom质量的情况下“做更多的事情”?”应将结果视为与使用敏捷和灵活的科学和基于技术的方法来帮助实现军事目标的CAF精神。