LLM关键词检索结果

为您的 LLM 奠定基础:企业知识库 RAG 实用指南

Grounding Your LLM: A Practical Guide to RAG for Enterprise Knowledge Bases

清晰的心智模型和实践基础,您可以在此基础上建立法学硕士基础:企业知识库 RAG 实用指南,该文章首先出现在《走向数据科学》上。

10 分钟解释 10 个 LLM 工程概念

10 LLM Engineering Concepts Explained in 10 Minutes

每个法学硕士工程师都发誓构建可靠的人工智能系统的 10 个概念。

2026 年的 LLMOps:每个团队必须拥有的 10 个工具

LLMOps in 2026: The 10 Tools Every Team Must Have

在检查这些基本的 2026 LLMOps 工具之前,不要部署其他模型。

10 个用于微调 LLM 的开源库

10 Open-Source Libraries for Fine-Tuning LLMs

微调大型语言模型 (LLM) 已成为使基础模型适应特定领域任务(例如客户支持、代码生成、法律分析、医疗保健助理和企业副驾驶)的最重要步骤之一。虽然全模型训练仍然昂贵,但开源库现在可以在适度的情况下有效地微调模型......阅读更多»用于微调 LLM 的 10 个开源库首先出现在《大数据分析新闻》上。

人工智能招聘公司 Mercor 表示,它是 LiteLLM 供应链攻击中的“数千人之一”

AI recruiting biz Mercor says it was 'one of thousands' hit in LiteLLM supply-chain attack

第一个公开的下游受害者,但不会是最后一个人工智能招聘初创公司 Mercor 证实,随着 Trivy 妥协的影响继续蔓延,它是受到 LiteLLM 供应链攻击影响的“数千家公司之一”。

SentinelOne自主检测拦截Claude代码触发的LiteLLM木马

SentinelOne autonomous detection blocks trojaned LiteLLM triggered by Claude Code

SentinelOne AI 在几秒钟内阻止了 LiteLLM 供应链攻击,无需人工干预即可自动阻止恶意代码。 SentinelOne 基于人工智能的安全检测并阻止了涉及受损 LiteLLM 软件包的供应链攻击。 SentinelOne 的 macOS 代理检测并阻止了由 Claude Code 在无意中安装了受感染的 LiteLLM 软件包后触发的恶意进程链。 [...]

使用 SageMaker Unified Studio 和 S3 加速 LLM 对非结构化数据的微调

Accelerating LLM fine-tuning with unstructured data using SageMaker Unified Studio and S3

去年,AWS 宣布了 Amazon SageMaker Unified Studio 与 Amazon S3 通用存储桶之间的集成。这种集成使团队可以轻松地将存储在 Amazon Simple Storage Service (Amazon S3) 中的非结构化数据用于机器学习 (ML) 和数据分析用例。在这篇文章中,我们展示了如何将 S3 通用存储桶与 Amazon SageMaker Catalog 集成,以使用 Amazon SageMaker Unified Studio 微调 Llama 3.2 11B Vision Instruct 以实现视觉问答 (VQA)。

Telnyx 与 LiteLLM 一起参与与 Trivy 漏洞相关的最新 PyPI 包中毒事件

Telnyx joins LiteLLM in latest PyPI package poisoning tied to Trivy breach

信息安全简述 此外,欧盟调查 Snapchat、引渡 RedLine 嫌疑人、阿斯利康泄密索赔浮出水面等。与 Trivy 供应链攻击有关的网络犯罪团伙再次发起袭击,这次将恶意 Telnyx 软件包版本推送到 PyPI,以期在开发人员的系统上植入窃取凭证的恶意软件。

$1B 赌注:LeCun 的世界模型 vs LLM 的帝国

$1B bet: LeCun's world models vs LLM's empire

Yann LeCun 与他的新初创公司 AMI 迈出了大胆的一步,致力于创建理解物理世界、推理因果关系并发展真正常识的“世界模型”。这种方法直接挑战了当今的主导范式,表明仅扩展法学硕士可能永远无法实现人类水平的智能。

ChatLLM 评论:厌倦了多种 AI 工具?这是一种更智能的一体化替代方案

ChatLLM Review: Tired of Multiple AI Tools? Here’s a Smarter All-in-One Alternative

探索 Abacus AI 的 ChatLLM,这是一个一体化的 AI 平台,将 ChatGPT、Claude 和 Midjourney 等工具集成到一个工作流程中。了解其功能、定价和实际用例。

10 个最佳 X (Twitter) 帐户,可关注 LLM 更新

10 Best X (Twitter) Accounts to Follow for LLM Updates

跳过炒作,关注这 10 个帐户,了解可靠的法学硕士论文、产品发布以及对人工智能发展方向的深思熟虑的看法。

LiteLLM 在 Trivy 追击游戏中输掉比赛,受到攻击

LiteLLM loses game of Trivy pursuit, gets compromised

用于通过受污染的 CI/CD 管道感染恶意软件的法学硕士的 Python 接口 LiteLLM(一种用于访问多种大型语言模型的开源接口)的两个版本已从 Python 包索引 (PyPI) 中删除,因为供应链攻击向它们注入了恶意凭证窃取代码。

llama.cpp:快速本地 LLM 推理、硬件选择和调整

llama.cpp: Fast Local LLM Inference, Hardware Choices & Tuning

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

P-EAGLE:通过 vLLM 中的并行推测解码实现更快的 LLM 推理

P-EAGLE: Faster LLM inference with Parallel Speculative Decoding in vLLM

在这篇文章中,我们将解释 P-EAGLE 的工作原理、如何将其集成到从 v0.16.0 (PR#32887) 开始的 vLLM 中,以及如何通过预先训练的检查点为其提供服务。

为什么关心 LLM 中的提示缓存?

Why Care About Prompt Caching in LLMs?

使用提示缓存优化 LLM 调用的成本和延迟The post Why Care About Prompt Caching in LLMs?首先出现在《走向数据科学》上。

加速自定义 LLM 部署:使用 Oumi 进行微调并部署到 Amazon Bedrock

Accelerate custom LLM deployment: Fine-tune with Oumi and deploy to Amazon Bedrock

在这篇文章中,我们将展示如何在 Amazon EC2 上使用 Oumi 微调 Llama 模型(可以选择使用 Oumi 创建合成数据)、在 Amazon S3 中存储工件以及使用自定义模型导入部署到 Amazon Bedrock 进行托管推理。

每个 LLM 工程师都应该知道的 10 个 Python 库

10 Python Libraries Every LLM Engineer Should Know

有兴趣成为法学硕士工程师吗?以下是您的工作所必需的 Python 库的列表。

LLM 培训转变推动 AI 飞跃

LLM Training Shift Powers AI Leap

为什么重要:法学硕士培训转变为 AI Leap 探索了 RLHF 和指令调整等新培训方法如何促进人工智能。