二十多年前提出的自主计算的愿景(ACV)设想了类似于生物生物体的自我管理的计算系统,从而无缝地适应不断变化的环境。尽管进行了数十年的研究,但由于现代组合系统的动态和复杂性,实现ACV仍在挑战。大型语言模型(LLM)的最新进步通过杠杆知识,语言理解和任务自动化功能,为这些挑战提供了有希望的解决方案。本文探讨了通过基于LLM的多代理框架进行微服务管理的可行性。我们引入了一个五级分类器,以进行自主服务维护,并根据Sock Shop Microservice Demo项目提供在线评估基准,以评估我们的框架的性能。我们的发现表明,在实现3级自主权方面取得了很大的进步,强调了LLM在检测和解决微服务体系结构中的问题方面的有效性。这项研究通过开创LLMS集成到微服务管理框架中,为更具适应性和自我管理的计算系统铺平道路,从而有助于提高自主计算。该代码将在https://aka.ms/acv-llm上提供。
摘要 - 随着大规模生成的AI模型的开发超出文本(1D)生成,包括图像(2D)和视频(3D)生成,处理空间和时间信息对质量,性能和效率提出了独特的挑战。我们介绍了为理解多模式文本对图像(TTI)和文本对视频(TTV)生成模型的新系统设计空间的第一项工作。当前的模型架构设计分为两类:基于扩散和变压器的模型。我们在八个代表性TTI/TTV模型的套件上进行系统的性能表征表明,应用了最新的优化技术(例如闪光灯注意),卷积占基于扩散的TTI模型的44%的执行时间,而线性层为Transfere基于变速器的模型的执行时间最多49%。我们还观察到,基于扩散的TTI模型类似于LLM推理的预填充阶段,并且受益于闪光灯的1.1-2.5倍比类似于解码阶段的TTI模型高1.1-2.5倍。由于为LLMS设计的优化未直接映射到TTI/TTV模型上,因此我们必须对这些工作负载进行彻底的表征,以获得新的优化机会的见解。在这样做时,我们在TTI/TTV模型的上下文中定义了序列长度,并且在扩散模型推断中观察到序列长度最高为4倍。我们还观察到TTV工作负载的时间方面构成了独特的系统瓶颈,时间注意力占总注意力时间的60%以上。总的来说,我们深入的系统性能表征是设计有效且可部署的系统的重要第一步,以实现新兴的TTI/TTV工作负载。索引项 - 生成AI,多模式,扩散模型,变压器,序列长度,注意力
自动化材料合成需要历史数据,但从出版物中提取详细数据和元数据具有挑战性。我们制定了初步策略,使用大型语言模型从材料科学文章中快速、自主地提取数据,数据格式可由材料数据库管理。我们使用聚合物纳米复合材料的子域作为示例用例,并通过手动验证演示了概念验证案例研究。我们使用 Claude 2 chat、Open AI GPT-3.5 和 4 API 提取表征方法和有关样品的一般信息,利用零次和少量提示来引出更详细和准确的响应。我们在样本提取任务中使用 Claude 2 chat 获得了最佳结果,F1 得分为 0.88。我们的研究结果表明,语言模型对于从文献中更有效、更实用地检索合成参数非常有用。
摘要。大型语言模型(LLMS)最近改变了许多行业,增强了内容生成,客户服务代理,数据分析甚至软件的生成。这些应用程序是在远程服务器上托管的十个应用程序,以保护神经网络模型IP;但是,这引起了人们对输入查询的隐私的担忧。完全同质加密(FHE)是一种允许在私人数据上进行计算的加密技术,已被提议作为解决挑战的解决方案。然而,由于LLM的大小和FHE的计算开销的增加,今天使用分型模型方法对当今的实用fhe llms进行了进程。在这里,用户将其FHE加密数据发送到服务器以运行加密的注意头层;然后,服务器返回该图层的结果,以供用户本地运行该模型的其余部分。通过采用此方法,服务器维护其模型IP的一部分,并且用户仍然可以执行私有LLM推理。在这项工作中,我们评估了单层拆分模型LLM的神经网络模型IP构图,并演示了一种新颖的攻击向量,该攻击向量使用户可以轻松从服务器中提取神经网络模型IP,从而绕开了对加密量的要求的保护措施。在我们的分析中,我们证明了这种攻击的可行性,并讨论了潜在的缓解。
大型模型已成为人工智能,尤其是机器学习的最新开创性成就。但是,在图形方面,大型模型没有取得与其他领域相同的成功水平,例如自然语言处理和计算机视觉。为了促进将大型模型推向向前的大型模型,我们提出了一份透视论文,以讨论与开发大图模型1相关的挑战和机会。首先,我们讨论大图模型的所需特征。然后,我们从三个关键角度提出了详细的讨论:表示基础,图形数据和图形模型。在每个类别中,我们提供了最新进步的简要概述,并强调了剩余的挑战以及我们的愿景。最后,我们讨论了大图模型的宝贵应用。我们认为,这种观点可以鼓励对大型图模型进行进一步的调查,最终使我们更靠近人工通用情报(AGI)。据我们所知,我们是第一个全面研究大型图模型的人。
摘要 - 由于操作员的熟练程度和成像情况的差异,超声检查的次数急剧增加,低质量的超声成像已大大增加,因此对诊断准确性造成了严重负担,甚至导致重新诊断的风险在关键病例中重新开始诊断。为了帮助临床医生选择高质量的超声图像并确保准确的诊断,我们引入了超声波QBench,这是一种全面的基准,该基准在系统上可以评估多模式大型语言模型(MLLMS),以实现超声图像的质量评估任务。超声 - Qbench建立了从不同来源收集的两个数据集:IVUSQA,由7,709张图像和心脏硫酸氢菌组成,包含3,863张图像。这些图像包含常见的超声成像工件由专业的Ul-Trasound专家注释,并分为三个质量:高,中和低。为了更好地评估MLLM,我们将质量评估任务分解为三个维度:定性分类,定量评分和比较评估。对7个开源MLLM和1个原则的评估表明,MLLM具有超声图像质量分类中低级视觉任务的初步功能。我们希望这种基准能激发研究界的深入研究和增强MLLM在医学成像任务中的未开发潜力。索引术语 - 大型大语言模型(MLLM),质量评估,超声图像
大型语言模型(LLM)的快速发展已在包括网络安全在内的各个领域开设了新的途径,该途径面临着不断发展的威胁格局和对创新技术的需求。尽管对LLM在网络安全中的应用中进行了初步探索,但该研究领域缺乏全面的概述。本文通过提供系统的文献综述来解决这一差距,涵盖了300多件作品的分析,涵盖了25个LLM和10个以上的下游场景。我们的全面概述解决了三个关键的研究问题:以网络安全为导向的LLM的构建,LLM在各种网络安全任务中的应用,该领域的挑战和进一步研究。这项研究旨在阐明LLM在增强网络安全实践方面的广泛潜力,并作为在该领域应用LLM的宝贵资源。,我们还在https://github.com/tmylla/awsome-llm4cybersecurity上维护并定期更新有关LLMS网络安全的实用指南列表。
责任限制/免责声明:尽管出版商和作者已尽最大努力准备本作品,但他们未就本作品内容的准确性或完整性做出任何陈述或保证,并特别否认所有保证,包括但不限于任何有关适销性或特定用途适用性的默示保证。销售代表、书面销售材料或宣传声明均不得为本作品创建或延长任何保证。本作品中引用某个组织、网站或产品作为进一步信息的潜在来源,并不意味着出版商和作者认可该组织、网站或产品可能提供的信息或服务或可能提出的建议。出售本作品时,请知悉出版商不提供专业服务。本文中包含的建议和策略可能不适合您的情况。您应在适当的情况下咨询专家。此外,读者应注意,本作品中列出的网站可能在本作品撰写和阅读期间发生变化或消失。出版商和作者均不对任何利润损失或任何其他商业损失负责,包括但不限于特殊、偶发、后果性或其他损失。