LLM关键词检索结果

新加坡国立大学的这篇 AI 论文介绍了一种利用自我评估来防御 LLM 对抗性攻击的方法

This AI Paper from the National University of Singapore Introduces a Defense Against Adversarial Attacks on LLMs Utilizing Self-Evaluation

在服务于多个领域的大量现有 LLM 海洋中,确保大型语言模型 (LLM) 的安全已成为一个紧迫的问题。尽管实施了诸如从人类反馈中强化学习 (RLHF) 之类的训练方法并开发了推理时间护栏,但许多对抗性攻击已证明能够绕过这些帖子《新加坡国立大学的这篇 AI 论文介绍了一种利用自我评估防御 LLM 对抗性攻击的方法》,该帖子首先出现在 AI Quantum Intelligence 上。

LLM 量化的终极手册

The Ultimate Handbook for LLM Quantization

深入研究 LLM 量化和技术照片由 Siednji Leon 在 Unsplash 上拍摄 CPU 上的 LLM?是的,你没听错。从处理对话到创建自己的图像,AI 自诞生以来已经取得了长足的进步。但它也带来了瓶颈。随着模型的扩展,它们的计算需求也在增加。AI 开始严重依赖计算能力。为了满足这些需求,我们转向了 GPU,剩下的就是历史了。许多设备没有强大的 GPU,因此错过了 AI 功能。有必要缩小这些模型的大小和功能,以便在计算能力有限的设备(如手机或仅配备 CPU 的计算机)上运行 AI 模型。早期的努力包括修剪和蒸馏等技术。然而,这些方法对于通常具有大规模架构的 LLM 来说并不可行。最近

MARKLLM:用于 LLM 水印的开源工具包

MARKLLM: An Open-Source Toolkit for LLM Watermarking

LLM 水印将难以察觉但可检测的信号集成到模型输出中以识别 LLM 生成的文本,这对于防止滥用大型语言模型至关重要。这些水印技术主要分为两类:KGW 系列和 Christ 系列。KGW 系列修改了 LLM 生成的逻辑以创建 […] 文章 MARKLLM:LLM 水印的开源工具包首先出现在 Unite.AI 上。

LLM 的表现是否由他们的遗传密码预先决定?

Is LLM Performance Predetermined by Their Genetic Code?

探索系统发育算法来预测大型语言模型的未来继续阅读 Towards Data Science »

Meta 的 LLM 编译器:利用 AI 驱动的编译器设计创新代码优化

Meta’s LLM Compiler: Innovating Code Optimization with AI-Powered Compiler Design

对效率和速度的追求在软件开发中仍然至关重要。每个节省的字节和优化的毫秒都可以显著提升用户体验和运营效率。随着人工智能的不断发展,其生成高度优化代码的能力不仅可以提高效率,而且还可以挑战传统的软件开发方法。Meta 的最新成就,Large […]Meta 的 LLM 编译器:使用 AI 驱动的编译器设计创新代码优化首先出现在 Unite.AI 上。

MIA-Bench:面向多模态 LLM 评估后的更好指导

MIA-Bench: Towards Better Instruction Following Evaluation of Multimodal LLMs

我们推出了 MIA-Bench,这是一种新的基准,旨在评估多模态大型语言模型 (MLLM) 严格遵守复杂指令的能力。我们的基准由 400 个不同的图像提示对组成,每个对都经过精心设计,旨在挑战模型对分层指令的遵守情况,从而生成满足特定请求模式的准确响应。来自各种最先进的 MLLM 的评估结果揭示了性能的显著差异,突出了指令保真度方面需要改进的地方。此外,我们创建了额外的训练数据和……

LLM 合成数据生成完整指南

Full Guide on LLM Synthetic Data Generation

大型语言模型 (LLM) 是强大的工具,不仅可以生成类似人类的文本,还可以创建高质量的合成数据。这种能力正在改变我们处理 AI 开发的方式,特别是在现实世界数据稀缺、昂贵或隐私敏感的情况下。在本综合指南中,我们将探索 LLM 驱动的合成数据生成,深入研究其方法,[…] 文章《LLM 合成数据生成完整指南》首先出现在 Unite.AI 上。

LLM 对齐:基于奖励的方法与无奖励的方法

LLM Alignment: Reward-Based vs Reward-Free Methods

LLM 对齐的优化方法上下文语言模型已经展示了根据用户提供的提示生成各种引人注目的文本的非凡能力。然而,定义什么是“好”文本具有挑战性,因为它通常取决于个人偏好和具体背景。例如,在讲故事时,创造力是关键;在制作信息内容时,准确性和可靠性至关重要;而在生成代码时,确保它正确运行至关重要。因此出现了“LLM 对齐问题”,它指的是确保大型语言模型 (LLM) 的行为方式符合人类价值观、意图和偏好的挑战。设计一个损失函数来捕捉我们在文本中重视的各种品质——比如创造力、准确性或可执行性——是非常复杂且通常不切实际的。像这样的概念是不可区分的,因此不能反向传播,也不能用简单的下一个标记生成来训练。想象一下

GenAI 时代的时间序列预测:让梯度提升表现得像 LLM | 作者 Marco Cerliani | 2024 年 7 月

Time Series Forecasting in the Age of GenAI: Make Gradient Boosting Behaves like LLMs | by Marco Cerliani | Jul, 2024

将零样本预测应用于标准机器学习模型 照片由 David Menidrey 在 Unsplash 上拍摄 生成式人工智能和大型语言模型 (LLM) 的兴起让全世界着迷,在各个领域掀起了一场革命。虽然这种技术的主要焦点是文本序列,但现在人们开始进一步关注 GenAI 时代的时间序列预测:让梯度提升的行为像 LLM | 作者 Marco Cerliani | 2024 年 7 月首次出现在 AI Quantum Intelligence 上。

GenAI 时代的时间序列预测:让梯度提升表现得像 LLM

Time Series Forecasting in the Age of GenAI: Make Gradient Boosting Behaves like LLMs

使用标准机器学习模型应用零样本预测继续阅读 Towards Data Science »

LLM 应用程序、关键数据技能、多 AI 代理系统和其他 7 月必读内容

LLM Apps, Crucial Data Skills, Multi-AI Agent Systems, and Other July Must-Reads

LLM 应用程序、关键数据技能、多智能体 AI 系统和其他 7 月必读内容是否受到启发,想要撰写您的第一篇 TDS 帖子?我们始终欢迎新作者的投稿。如果您居住的地方已经是夏天,我们希望您能充分利用温暖的天气和(希望如此?也许?)更轻松的日常节奏。当然,学习永无止境——至少对于数据科学家而言是这样——所以如果您认为美好时光包括迎接新挑战和探索尖端工具和工作流程,那么您将大饱眼福。我们的 7 月精选由上个月在读者中引起最大轰动的文章组成,涵盖了广泛的实用主题——其中许多旨在帮助您提高自己的标准并扩展您的技能。让我们开始吧!每月精选在 Uber、Meta 和初创公司工作的 10 年教会了我什么关于数

LLM 消耗多少能量?我们使用 Python 工具 EnergyMeter 来…… | 作者:Mauricio Fadel Argerich | 2024 年 7 月

How Much Energy Do LLMs Consume?. We use EnergyMeter, a Python tool, to… | by Mauricio Fadel Argerich | Jul, 2024

我们使用 Python 工具 EnergyMeter 来测量不同 LLM 的能耗,包括 Llama、Dolly 和 BLOOM 回答所有这些问题需要大量能量![由 Designer 使用 AI 制作。] 大型语言模型 (LLM) 正在成为我们每天执行的几项任务的新主流:搜索日常问题的答案,帖子 LLM 消耗多少能量?。我们使用 Python 工具 EnergyMeter 来…… | 作者:Mauricio Fadel Argerich | 2024 年 7 月首次出现在 AI Quantum Intelligence 上。

从头开始​​及以后为 RAG 构建 LLM 代理:综合指南

Building LLM Agents for RAG from Scratch and Beyond: A Comprehensive Guide

GPT-3、GPT-4 等 LLM 及其开源对应物通常在检索最新信息时遇到困难,有时会产生幻觉或不正确的信息。检索增强生成 (RAG) 是一种将 LLM 的强大功能与外部知识检索相结合的技术。RAG 使我们能够将 LLM 响应建立在事实、最新信息的基础上,从而显着提高了准确性和可靠性 […] 文章 从头开始​​构建 RAG 的 LLM 代理:综合指南首先出现在 Unite.AI 上。

实用 AI:用于植物护理的本地 LLM 和机器学习 | Viam

Practical AI: Local LLM and machine learning for plant care | Viam

只需不到 50 行代码即可创建具有本地数据安全性且不收取使用费的自定义 AI 助手。

LLM 中的红队:增强 AI 安全性和弹性

Red Teaming in LLMs: Enhancing AI Security and Resilience

互联网是一种像地球一样活跃和繁荣的媒介。从信息和知识的宝库,它也逐渐成为黑客和攻击者的数字游乐场。攻击者不仅将互联网视为勒索数据、金钱和金钱价值的技术手段,还将互联网视为一个开放的画布[…]

在轻量级 LLM 中应用 RLAIF 进行代码生成并使用 API

Applying RLAIF for Code Generation with API-usage in Lightweight LLMs

这篇论文被 ACL 2024 的自然语言推理和结构化解释研讨会接受。人工智能反馈强化学习 (RLAIF) 已在各个领域展现出巨大潜力,包括减轻 LLM 输出的危害、增强文本摘要和数学推理。本文介绍了一个 RLAIF 框架,用于提高轻量级(<1B 个参数)LLM 的代码生成能力。我们特别关注需要编写适当 API 调用的代码生成任务,这很有挑战性,因为众所周知的问题......

亚马逊的 Metis:由 Olympus LLM 提供支持的新型人工智能聊天机器人

Amazon’s Metis: A New AI Chatbot Powered by Olympus LLM

据报道,电子商务巨头亚马逊正准备推出其在人工智能 (AI) 领域的最新创新——一款名为“Metis”的新型 AI 聊天机器人。这款即将推出的聊天机器人预计将由名为“Olympus”的新型大型语言模型 (LLM) 提供支持,将其定位为 OpenAI 的 ChatGPT 等成熟 AI 聊天机器人的潜在竞争对手[…]亚马逊的 Metis:一款由 Olympus LLM 提供支持的新型 AI 聊天机器人首先出现在 happy future AI 上。

在单一界面中使用不同的 LLM 构建对话聊天机器人 - 第 1 部分

Build a conversational chatbot using different LLMs within single interface – Part 1

随着生成人工智能 (AI) 的出现,基础模型 (FM) 可以生成内容,例如回答问题、总结文本和提供源文档中的亮点。但是,对于模型选择,有多种模型提供商可供选择,例如 Amazon、Anthropic、AI21 Labs、Cohere 和 Meta,再加上 PDF 中的离散真实世界数据格式,[…]