LLM关键词检索结果

使用 LangExtract 和 LLM 进行数据提取的初学者指南

Beginner’s Guide to Data Extraction with LangExtract and LLMs

如果您需要从文本中提取特定数据,LangExtract 提供了一种快速、灵活且适合初学者的方法。

政策地图:指导 LLM 行为无限空间的工具

Policy Maps: Tools for Guiding the Unbounded Space of LLM Behaviors

人工智能政策为人工智能模型的可接受行为设定了界限,但这在大型语言模型 (LLM) 的背景下具有挑战性:如何确保覆盖广阔的行为空间?我们引入了政策地图,这是一种受物理地图制作实践启发的人工智能政策设计方法。政策地图不是以全面覆盖为目标,而是通过有意识的设计选择来帮助有效导航,了解哪些方面要捕获,哪些方面要抽象。借助政策投影仪(一种用于设计法学硕士政策地图的交互式工具),人工智能从业者可以调查模型的情况……

使用 Datapizza AI 更快地构建 LLM 代理

Build LLM Agents Faster with Datapizza AI

新的 GenAI 框架“意大利制造”使用 Datapizza AI 更快地构建 LLM 代理一文首先出现在 Towards Data Science 上。

优化 LLM 成本、延迟和性能提示的 4 种技巧

4 Techniques to Optimize Your LLM Prompts for Cost, Latency and Performance

了解如何大幅提高 LLM 申请的性能帖子 4 条优化 LLM 提示成本、延迟和性能的技术首先出现在《走向数据科学》上。

用于在资源受限的移动设备上微调 LLM 的内存高效反向传播

Memory-Efficient Backpropagation for Fine-Tuning LLMs on Resource-Constrained Mobile Devices

使用反向传播对大型语言模型 (LLM) 进行微调(即使对于 LoRA 等参数子集)可能比推理更消耗内存,并且对于资源受限的移动设备来说通常被认为是不切实际的。零阶优化 (ZO) 等替代方法可以大大减少内存占用,但代价是模型收敛速度显着减慢(比反向传播多 10 倍到 100 倍的步骤)。我们提出了一种在移动设备上实现反向传播 (MeBP) 的内存高效实现,它可以在内存使用和计算之间提供更好的权衡……

使用安全的公共 API 在本地运行 vLLM 模型

Run vLLM Models Locally with a Secure Public API

使用 vLLM 在本地运行 LLM,并使用 Clarifai Local Runners 通过安全的公共 API 公开它们。

一个新的超级提示可能会增加 LLM 的创造力

En ny super prompt kan potentiellt öka kreativiteten i LLM

无聊的人工智能答案问题 一项新的研究技术可以使像 ChatGPT 这样的语言模型显着更具创造性,而您所需要的只是一个智能提示。当您向 ChatGPT 询问问题时,您通常会得到一个“典型”答案。这是由于研究人员所谓的“模式崩溃”,语言模型陷入了安全且可预测的答案中,而不是[…]这篇文章《一种新的超级提示可能会增加法学硕士的创造力》首先出现在人工智能新闻上。

中国开源LLM挑战市场领导者

Китайская LLM с открытым кодом бросает вызов лидерам рынка

阿里巴巴声称其 Qwen3-Omni 在一系列标准测试中均表现出色。

Amazon Bedrock 自定义模型导入如何简化 Salesforce 的 LLM 部署

How Amazon Bedrock Custom Model Import streamlined LLM deployment for Salesforce

本文展示了 Salesforce 如何将 Amazon Bedrock 自定义模型导入集成到其机器学习操作 (MLOps) 工作流程中,在不更改应用程序的情况下重用现有终端节点,以及如何对可扩展性进行基准测试。我们分享有关运营效率和成本优化收益的关键指标,并提供简化部署策略的实用见解。

LLM 应用程序中跟踪令牌使用情况的初学者指南

The Beginner’s Guide to Tracking Token Usage in LLM Apps

如果你不跟踪代币,那么每次你的应用程序与法学硕士对话时,你基本上都是在烧钱。

顶级 LLM 推理提供商比较 - GPT-OSS-120B

Top LLM Inference Providers Compared - GPT-OSS-120B

比较顶级 GPT‑OSS‑120B 推理提供商的吞吐量、延迟和成本。了解 Clarifai、Vertex AI、Azure、AWS 等如何处理推理繁重的工作负载和实际应用程序。

如何根据实际用例微调 LLM 模型

What It Really Takes to Fine-Tune a LLM Model for a Real-World Use Case

了解如何为现实世界的应用程序安全地微调 LLM 帖子“为真实世界用例微调 LLM 模型真正需要什么”一文首先出现在 Spritle 软件上。

三星小型AI模型TRM挑战更大的LLM模型

Samsungs lilla AI-modell TRM utmanar större LLM-modeller

三星研究人员开发了一种名为 TRM(微小递归模型)的新型开放推理模型,该模型在特定问题上的性能比其他模型大 10,000 倍。基于递归推理的模型表明,小型网络无需在 GPU 和功耗上进行大量投资即可实现高性能。 TRM 是 MIT 许可下的开源代码,并且 [...] 三星的小型 AI 模型 TRM 挑战更大的 LLM 模型,首次出现在 AI News 上。

链接

Links

麻疹暴发扩展到19个州。商业健康计划的加速批准药物以及最近的案例研究。将IRA毒品价格谈判扩展到商业计划? “肯尼迪转向自闭症研究的疫苗怀疑论者”,为什么LLMS在经济学上如此出色?最昂贵的州开展业务。

卢比诺 - 霍尔曼·西尔瓦纳(Rubino-Hallman Silvana)

Alvaro R. Smith

Alvaro R. Smith是中国,台湾和蒙古的副助理助理秘书。在这一职位上,他担任中国,台湾和蒙古的所有事物战争部长的首席顾问,是政策与战略制定,监督,当局审查以及国家级别的机构间整合的唯一枢纽,以使该部门在

PewDiePie 打造了自己的 AI 系统 ChatOS

PewDiePie har byggt sitt eget AI-system ChatOS

PewDiePie 在本地多 GPU 机架上构建了一个名为 ChatOS 的自托管 AI 系统,无需云服务即可运行大型开放模型。这是瑞典人 Felix Kjellberg (PewDiePie) 设计的一个很酷且令人印象深刻的人工智能项目或迷你实验室。 ChatOS 是一个定制的 Web 界面,PewDiePie 在本地托管开放的 LLM,以实现隐私、控制和低延迟,而不是 […]PewDiePie 构建了自己的 AI 系统 ChatOS 的帖子首次出现在 AI 新闻中。

“系统思维帮助我把大局放在首位和中心位置”

“Systems thinking helps me put the big picture front and center”

郭帅谈深度研究代理、分析型人工智能与基于 LLM 的代理以及系统思维“系统思维帮助我将大局置于中心位置”首先出现在《走向数据科学》上。

推理的剃刀:推理提高了准确性,但会损害安全和幻觉检测中关键操作点的回忆

Reasoning’s Razor: Reasoning Improves Accuracy but Can Hurt Recall at Critical Operating Points in Safety and Hallucination Detection

推理已成为大型语言模型 (LLM) 的核心范式,不断提高各种基准的准确性。然而,它是否适合精度敏感的任务仍不清楚。我们提出了第一个在严格的低误报率(FPR)制度下分类任务推理的系统研究。我们的分析涵盖两项任务——安全检测和幻觉检测——使用标准法学硕士和大型推理模型(LRM)在微调和零样本设置下进行评估。我们的结果揭示了一个明显的权衡:Think On(推理增强)生成改进......