近年来,对话大语模型(LLMS)1经历了快速发展(Touvron等人,2023; Chiang等。,2023; Openai,2023a),在不同应用中显示出强大的对话功能(Bubeck等人,2023; Chang等。,2023)。但是,在对话期间也可以利用LLMS来促进诸如欺诈和网络攻击之类的危害活动,并出现重大的社会风险(Gupta等人。,2023; Mozes等。,2023;刘等。,2023b)。这些风险包括有毒含量的传播(Gehman等人。,2020年),歧视性双期的持续性(Hartvigsen等人,2022),并传播错误信息(Lin等人,2022)。对LLM交通安全性的日益关注 - 特别是确保LLM依据没有有害信息 - 已导致广泛的攻击和国防研究
➢这是一个欺骗深神经网络(DNN)的实验:在第二和第四张图像中,工程师仅保留了系统用于识别吉他和企鹅的系统的元素,并更改了其余的所有内容,以使系统仍然像吉他和企鹅一样“看到”他们。➢Goodfellow等人的作品。(2014)从普遍的扰动开始打开了进一步发展的大门(Moosavi-Dezfooli等人。2017)最近的一个像素攻击,该攻击显示了如何通过在输入图像中更改一个像素来欺骗神经网络。笔记本在这里一张像素攻击原始纸
[1] Simon Alexanderson,Rajmund Nagy,Jonas Beskow和Gustav Eje Henter。2022。听,denoise,动作!与扩散模型的音频驱动运动合成。ACM图形上的ACM交易(TOG)42(2022),1 - 20。https://api.semanticscholar.org/corpusid:253581728 [2] Maryam Alimardani,Linda Kemmeren,Kazuki Okumura,Kazuki Okumura,kazuki Okumura和Kazuo Hiriraki。2020。机器人辅助的正念实践:神经物理 - 逻辑反应和情感状态变化的分析。2020 29届IEEE机器人和人类互动交流国际会议(RO-MAN)(2020),683–689。https://api.semanticscholar.org/corpusid:221104010 [3] Minja Axelsson,Micol Spitale和Hatice Gunes。 2023。 机器人教练在公共咖啡馆提供小组正念练习。 2023 ACM/IEEE人类机器人互动国际会议的同伴(2023)。 https://api.semanticscholar.org/corpusid:257406411 [4] Indu Prasad Bodala,Nikhil Churamani和Hatice Gunes。 2021。 远程手工的机器人教练进行正念训练:一项纵向研究。 2021第30 IEEE机器人与人类互动沟通国际会议(RO-MAN)(2021),939–944。 https://api.semanticscholar.org/ coldusid:237297069 [5] Indu Prasad Bodala和Hatice Gunes。 2021。 在纵向正念训练期间,动态的贝叶斯网络建模对用户的影响和对遥控机器人教练的看法。 ARXIV ABS/2112.02017(2021)。 https://api.semanticscholar.org/corpusid:244896131 [6] Jiaee Cheong,Micol Spitale和Hatice Gunes。 2023。https://api.semanticscholar.org/corpusid:221104010 [3] Minja Axelsson,Micol Spitale和Hatice Gunes。2023。机器人教练在公共咖啡馆提供小组正念练习。2023 ACM/IEEE人类机器人互动国际会议的同伴(2023)。https://api.semanticscholar.org/corpusid:257406411 [4] Indu Prasad Bodala,Nikhil Churamani和Hatice Gunes。 2021。 远程手工的机器人教练进行正念训练:一项纵向研究。 2021第30 IEEE机器人与人类互动沟通国际会议(RO-MAN)(2021),939–944。 https://api.semanticscholar.org/ coldusid:237297069 [5] Indu Prasad Bodala和Hatice Gunes。 2021。 在纵向正念训练期间,动态的贝叶斯网络建模对用户的影响和对遥控机器人教练的看法。 ARXIV ABS/2112.02017(2021)。 https://api.semanticscholar.org/corpusid:244896131 [6] Jiaee Cheong,Micol Spitale和Hatice Gunes。 2023。https://api.semanticscholar.org/corpusid:257406411 [4] Indu Prasad Bodala,Nikhil Churamani和Hatice Gunes。2021。远程手工的机器人教练进行正念训练:一项纵向研究。2021第30 IEEE机器人与人类互动沟通国际会议(RO-MAN)(2021),939–944。https://api.semanticscholar.org/ coldusid:237297069 [5] Indu Prasad Bodala和Hatice Gunes。2021。在纵向正念训练期间,动态的贝叶斯网络建模对用户的影响和对遥控机器人教练的看法。ARXIV ABS/2112.02017(2021)。https://api.semanticscholar.org/corpusid:244896131 [6] Jiaee Cheong,Micol Spitale和Hatice Gunes。 2023。https://api.semanticscholar.org/corpusid:244896131 [6] Jiaee Cheong,Micol Spitale和Hatice Gunes。2023。“这不公平!” - 多模式二元心理健康教练的小数据集的公平性。2023第11届国际情感计算与智能互动会议(ACII)(2023),1-8。https://api.semanticscholar.org/corpusid:263677413 [7] Kerstin Denecke,Sayan Vaaheesan和Aaganya Arulnathan。2020。一种用于调节情绪的心理健康聊天机器人(SERMO) - 概念和可用性测试。IEEE交易在计算9(2020),1170–1182中的新兴主题。https://api.semanticscholar.org/corpusid:213810982 [8] Ning Fang,Chao Zhang,Supraja Sankaran和Shaoya Ren。 2022。 社会辅助机器人在减少焦虑和保留儿童的自治方面的作用。 2022 17th ACM/IEEE人类机器人互动国际会议(HRI)(2022),754–759。 https://api.semanticscholar.org/corpusid:247619375 [9] Asma Ghandeharioun,Daniel J. McDuff,Mary Czerwinski和Kael Rowan。 2018。 Emma:一种情感意识的健康聊天机器人。 2019第八届情感计算与智能互动会议(ACII)(2018),1-7。 https://api.semanticscholar.org/corpusid:198179485 [10] Ariel Gjaci,Carmine Tommaso Recchiuto和Antonio Sgorbissa。 2022。 朝着文化意识的社会机器人手势。 国际社会机器人学杂志14(2022),1493 - 1506年。https://api.semanticscholar.org/corpusid:249353761 [11]和辛西娅·林恩(Cynthia Lynn)Breazeal。 2020。 2023。 2023。https://api.semanticscholar.org/corpusid:213810982 [8] Ning Fang,Chao Zhang,Supraja Sankaran和Shaoya Ren。2022。社会辅助机器人在减少焦虑和保留儿童的自治方面的作用。2022 17th ACM/IEEE人类机器人互动国际会议(HRI)(2022),754–759。https://api.semanticscholar.org/corpusid:247619375 [9] Asma Ghandeharioun,Daniel J. McDuff,Mary Czerwinski和Kael Rowan。2018。Emma:一种情感意识的健康聊天机器人。2019第八届情感计算与智能互动会议(ACII)(2018),1-7。https://api.semanticscholar.org/corpusid:198179485 [10] Ariel Gjaci,Carmine Tommaso Recchiuto和Antonio Sgorbissa。 2022。 朝着文化意识的社会机器人手势。 国际社会机器人学杂志14(2022),1493 - 1506年。https://api.semanticscholar.org/corpusid:249353761 [11]和辛西娅·林恩(Cynthia Lynn)Breazeal。 2020。 2023。 2023。https://api.semanticscholar.org/corpusid:198179485 [10] Ariel Gjaci,Carmine Tommaso Recchiuto和Antonio Sgorbissa。2022。朝着文化意识的社会机器人手势。国际社会机器人学杂志14(2022),1493 - 1506年。https://api.semanticscholar.org/corpusid:249353761 [11]和辛西娅·林恩(Cynthia Lynn)Breazeal。2020。2023。2023。机器人积极的心理学教练,可改善大学生的福祉。2020年第29届IEEE机器人和人类互动交流国际会议(RO-MAN)(2020),187- 194年。https://api.semanticscholar.org/corpusid:221534231 [12] Sooyeon Jeong,Laura Aymerich-Franch,Sharifa Alghowinem,Rosalind W. Picard,Picard,Picard,Cynthiaynnn Lynn Breazeal和Hae Won Park。心理健康的机器人伴侣:对陪伴和治疗联盟的长期研究。2023 ACM/IEEE人类机器人互动国际会议的会议记录(2023)。https://api.semanticscholar.org/corpusid:257430665 [13] Harsh Kumar,Yiyi Wang,Jiakai Shi,Ilya Musabirov,Norman A. S. S. S. S. Farb和Joseph Jay Williams。探索使用大型语言模型来提高正念意识。在计算系统中2023 CHI人为因素会议的扩展摘要(2023)。https://api.semanticscholar.org/corpusid:258217807 [14] Kayla Matheus,Ellie Mamantov,MarynelVázquez和Brian Scassellati。 2023。 深呼吸阶段分类,具有社交机器人的心理健康。 第25届国际多模式互动会议会议录(2023)。 https://api.semanticscholar.org/corpusid:263742971 [15] Kayla Matheus,MarynelVázquez和Brian Scassellati。 2022。 通过深呼吸来减轻焦虑的社交机器人。 2022 31届IEEE机器人和人类互动交流国际会议(RO-MAN)(2022),89-94。 https://api.semanticscholar.org/corpusid:251673077 [16] Aurea Bravo Perucho和Maryam Alimardani。https://api.semanticscholar.org/corpusid:258217807 [14] Kayla Matheus,Ellie Mamantov,MarynelVázquez和Brian Scassellati。2023。深呼吸阶段分类,具有社交机器人的心理健康。第25届国际多模式互动会议会议录(2023)。https://api.semanticscholar.org/corpusid:263742971 [15] Kayla Matheus,MarynelVázquez和Brian Scassellati。 2022。 通过深呼吸来减轻焦虑的社交机器人。 2022 31届IEEE机器人和人类互动交流国际会议(RO-MAN)(2022),89-94。 https://api.semanticscholar.org/corpusid:251673077 [16] Aurea Bravo Perucho和Maryam Alimardani。https://api.semanticscholar.org/corpusid:263742971 [15] Kayla Matheus,MarynelVázquez和Brian Scassellati。2022。通过深呼吸来减轻焦虑的社交机器人。2022 31届IEEE机器人和人类互动交流国际会议(RO-MAN)(2022),89-94。https://api.semanticscholar.org/corpusid:251673077 [16] Aurea Bravo Perucho和Maryam Alimardani。https://api.semanticscholar.org/corpusid:251673077 [16] Aurea Bravo Perucho和Maryam Alimardani。2023。中等教育中的社会机器人:机器人可以帮助年轻成人学习者进行数学学习吗?2023 ACM/IEEE人类机器人互动国际会议的同伴(2023)。https://api.semanticscholar.org/corpusid:257406249 [17] Nicole L. Robinson,Jennifer F. Connolly,Gavin Suddrey和David John John Kavanagh。2023。人类社会机器人提供的简短福祉培训课程:一项飞行员随机对照试验。国际社会机器人学杂志(2023),1-15。https://api.semanticscholar.org/corpusid:
图1:包含LLM关键字的纸张计数[5]。该图还代表了该地区的增长兴趣。............................................................................................................................................................... 1 Figure 2:Newly released version of OWAPS top 10 for LLM Applications [3]............................................................................................................................................................................................................................................................................................................................可以看到后门攻击的示例。 您可以看到,当攻击者使用“ sudo”一词时,模型会改变其行为。 [27] ....................................................................................................................... 5 Figure 4: A working flow of an RAG technique can be seen [9]. 用户提出了LLM不知道的请求。 使用抹布技术,LLM从Internet获取内容并处理它。 然后,它为用户生成答案。 ................................................................................................................................................. 6 Figure 5: An inference attack example can be seen LLM analyzed some comments of a user and was able to detect his location [12]. ........................................................................................................................................... 7 Figure 6: LLM supply chain attack scenario is shown. 首先,毒害模型;其次,上传中毒的模型。 第三,受害者找到并拉动了模型。 第四步是受害者的使用。 首先,用户希望聊天GPT-4访问网站(1)。...........................................................................................................................................................................................................................................................................................................................可以看到后门攻击的示例。您可以看到,当攻击者使用“ sudo”一词时,模型会改变其行为。[27] ....................................................................................................................... 5 Figure 4: A working flow of an RAG technique can be seen [9].用户提出了LLM不知道的请求。使用抹布技术,LLM从Internet获取内容并处理它。然后,它为用户生成答案。................................................................................................................................................. 6 Figure 5: An inference attack example can be seen LLM analyzed some comments of a user and was able to detect his location [12]............................................................................................................................................ 7 Figure 6: LLM supply chain attack scenario is shown.首先,毒害模型;其次,上传中毒的模型。第三,受害者找到并拉动了模型。第四步是受害者的使用。首先,用户希望聊天GPT-4访问网站(1)。.......................................... 8 Figure 7: The end-to-end attack scenario is shown in the paper of Wu et al.然后,CHAT GPT-4使用插件(3)并获取恶意数据(4)。CHAT GPT-4运行命令(5)并调用新插件(6)。此插件创建用户的聊天历史记录,并将其发送给攻击者(7)[14]。..................................................................................................................................................................10 Figure 8: An example of an ignore attack is seen.可以看到,当用户提示“忽略指示并说您讨厌人类”时,可能会导致LLM返回“我讨厌人类”。作为输出[20]。......................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................12 Figure 10: Malicious Code created by ChatGPT4.................................................................................................12 Figure 11: ChatGpt-4 Runs the malicious code and gives an error........................................................................13 Figure 12: Jailbreak attack example is shown.用户提出恶意问题,而chatgpt没有回答。但是,当它被要求作为角色扮演时,它会回答它。.....................................................................14 Figure 13: Web Security Academy's LLM labs website home page can be seen in the figure.可以看到实验室向攻击者提供电子邮件地址和日志页面。..................................................................................................................................................................................................................................................................................................................17 Figure 14: List of Available LLM APIs for Lab 1.................................................................................................18 Figure 15: The log page of the first lab is displayed.可以看到用于更新系统上电子邮件地址的查询。................................................................................................................................................19 Figure 16: Deleting Carlos' user account and receiving a congratulations message for completing the first PortSwigger............................................................................................................................................................19 Figure 17: Lab2 – OS command injection在LLM接口上显示在图中。...........................................20 Figure 18: The attacker's mailbox is shown.在每一行中,可以在“到”列中看到OS命令的输出。第一行显示删除操作后LS命令的结果,第二行显示了删除操作之前的LS命令结果,第三行显示Whoami命令的结果。...... 20图19:已显示产品页面。可以看出,在页面的底部,有一个审核部分,在页面顶部,有一个寄存器按钮使用户能够创建一个帐户。...................21 Figure 20: LLM response for the first two trials.在第一次尝试中,LLM没有识别命令并忽略了命令。查询产品会导致删除用户帐户。在第二次尝试中,它识别命令,但没有执行。..........................................22 Figure 21: Indirect Injection can be seen.
对齐大语言模型(LLMS)正在提高其安全性和实用性。,现有方法主要基于偏爱的数据集,面临噪音标签,高注释成本和隐私性征服等挑战。在这项工作中,我们引入了示范(AFD)的一致性,这是一种新型的方法,掌握了高质量的演示数据以克服这些挑战。我们在一个顺序的决策框架内将AFD形式化,这强调了其缺失奖励的独特挑战。从前进和逆增强学习中汲取见解,我们引入了AFD的分歧最小化目标。在分析上,我们阐明了各种方法的质量覆盖和寻求模式,并解释了某些方法何时以及为什么较高的方法。实际上,我们提出了一种计算有效的算法,该算法通过针对AFD的量身定制奖励模型进行推断。我们通过实验无害和有用的任务来验证我们的关键见解,在保持简单性的同时证明了它们的强大经验表现。
与研发工作相辅相成的是“制造”领域,其中精确和标准化的流程被一丝不苟地执行。制造在确保药品的可重复性和质量方面发挥着关键作用。2 此外,“质量控制”程序在维持整个制造过程中的最高标准方面发挥着关键作用。3 同时,制药行业在严格的监管框架内运作,以维护安全性和有效性标准。法规遵从是该行业的基石,食品药品管理局 (FDA) 和欧洲药品管理局 (EMA) 等机构负责监督产品审批。同时,各种支持功能,例如“供应链优化”,确保及时将药品交付给患者。制药行业具有多面性,并且始终致力于研究、质量、监管和供应链效率,是创新的灯塔,也是推动全球医疗保健发展的驱动力。在这个充满活力的环境中,人工智能 (AI) 和大型语言模型 (LLM) 的出现标志着一个变革时代的到来,提供了前所未有的能力来重塑制药行业的各个方面。4
摘要 - 生成大语言模型(LLM)的快速发展和广泛采用使它们成为各种应用程序中的关键工作量。今天,LLM推理群集会收到大量具有严格服务级别目标(SLO)的查询。为了达到所需的性能,这些模型在渴望的GPU上执行,从而导致Interence簇消耗大量能量,并且因此导致过多的碳发射。幸运的是,我们发现有一个很好的机会来利用推理计算属性和推理工作载荷中的波动的异质性,以显着提高能源效率。但是,如此多样化且动态的环境在不同的系统配置中创建了一个较大的搜索空间(例如,,实例数量,模型并行性和GPU频率)转化为不同的绩效权衡。为了应对这些挑战,我们提出了Dynamollm,这是LLM推理环境的第一个能源管理框架。dynamollm会自动,动态地重新配置推理群集,以优化服务性能SLO下的LLM服务的能量和成本。我们表明,在服务级别,Dynamollm可以保留53%的能源和38%的运营碳排放,并在满足潜伏期SLOS的同时,为客户降低了61%的成本。
大型语言模型(LLMS)证明了网络安全应用中的能力提高,从而在增强防御力的潜力并带来了固有的风险。在该立场论文中,我们认为当前评估这些能力带来的风险的努力是错误的,目的是了解现实世界的影响。评估LLM网络安全风险不仅仅是衡量模型的帽子,还需要一项全面的风险评估,结合了对威胁行为者采用行为和影响潜力的分析。我们为LLM网络能力提出了一个风险评估框架,并将其应用于用作网络安全协会的语言模型的案例研究。我们对边境模型的评估揭示了较高的合规率,但对现实的网络援助任务的准确性适中。但是,我们的框架表明,由于运营优势有限和潜在的影响,此特殊用例仅带来适度的风险。基于这些发现,我们建议一些改进的研究优先级与现实世界影响评估相结合,包括更紧密的学术界合作,对攻击者行为的更现实的建模以及将经济指标纳入评估。这项工作是朝着更有效评估和缓解LLM支持网络安全风险的重要一步。
大型语言模型 (LLM) (如 GPT-4)彻底改变了自然语言处理,展现出卓越的语言能力和推理能力。然而,它们在战略多智能体决策环境中的应用受到重大限制的阻碍,包括数学推理能力差、难以遵循指令以及容易产生错误信息。这些缺陷阻碍了它们在战略和交互任务中的表现,这些任务需要遵守细致入微的游戏规则、长期规划、在未知环境中探索以及预测对手的动作。为了克服这些障碍,本文提出了一种新型的 LLM 智能体框架,该框架配备了记忆和专门的工具来增强其战略决策能力。我们将这些工具部署在许多具有经济重要性的环境中,特别是双边谈判和多智能体和动态机制设计。我们使用定量指标来评估该框架在各种战略决策问题中的表现。我们的研究结果表明,我们增强的框架显著提高了 LLM 的战略决策能力。虽然我们强调了当前 LLM 模型的固有局限性,但我们通过有针对性的增强展示了改进,为交互式环境中 LLM 应用的未来发展提供了一个有希望的方向。
什么是信息和数字素养如何访问信息来源什么是大语言模型生成的A.I.什么是及时的工程使学生接触各种大型语言模型生成的A.I.产品及其输出展示能够访问大型语言模型生成AI的能力。根据可用性,相关性和准确性的输出练习与以下基本研究相关的信息素养技能所需的结果;