Kaggle + Google’s Free 5-Day Gen AI Course
这门为期五天的生成式 AI 强化课程通过为期一周的白皮书、实践代码实验室和现场专家会议,涵盖基础模型、嵌入、AI 代理、特定领域的 LLM 和 MLOps。
Interview with Sukanya Mandal: Synthesizing multi-modal knowledge graphs for smart city intelligence
Sukanya Mandal 和 Noel O’Connor 在 AAAI 秋季研讨会系列上发表的论文《LLMasMMKG:LLM Assisted Synthetic Multi-Modal Knowledge Graph Creation For Smart City Cognitive Digital Twins》中介绍了一种利用大型语言模型来自动构建专为智慧城市认知设计的综合多模态知识图的方法 [...]
Identifying interactions at scale for LLMs
了解复杂机器学习系统的行为,特别是大型语言模型 (LLM),是现代人工智能的一项关键挑战。可解释性研究旨在使决策过程......
Grounding Your LLM: A Practical Guide to RAG for Enterprise Knowledge Bases
清晰的心智模型和实践基础,您可以在此基础上建立法学硕士基础:企业知识库 RAG 实用指南,该文章首先出现在《走向数据科学》上。
Emergence of fragility in LLM-based social networks: an interview with Francesco Bertolotti
您论文的研究主题是什么?在我们的论文中,我们研究了当网络中的“个体”是由大型语言模型驱动的人工代理时,社会结构是如何出现的。为此,我们分析了一个名为 Moltbook 的平台,这是一个完全由 AI 代理(特别是基于 LLM 的代理)组成的社交网络,[...]
Python Supply-Chain Compromise
这是新闻:Python 包索引包 litellm 版本 1.82.8 中已发现恶意供应链危害。发布的wheel包含一个恶意的.pth文件(litellm_init.pth,34,628字节),该文件在每次启动时由Python解释器自动执行,不需要显式导入litellm模块。我们需要做很多非常无聊的事情来帮助保护所有这些关键库:SBOM、SLSA、SigStore。但我们必须这样做。
Personalized Group Relative Policy Optimization for Heterogenous Preference Alignment
尽管大型语言模型 (LLM) 具有复杂的通用功能,但它通常无法满足不同的个人偏好,因为标准的训练后方法(例如带有人类反馈的强化学习 (RLHF))会针对单一的全局目标进行优化。虽然组相对策略优化(GRPO)是一种广泛采用的同策略强化学习框架,但其基于组的归一化隐式假设所有样本都是可交换的,从而在个性化设置中继承了这一限制。这个假设将不同的用户奖励分布和......
10 LLM Engineering Concepts Explained in 10 Minutes
每个法学硕士工程师都发誓构建可靠的人工智能系统的 10 个概念。
LLMOps in 2026: The 10 Tools Every Team Must Have
在检查这些基本的 2026 LLMOps 工具之前,不要部署其他模型。
10 Open-Source Libraries for Fine-Tuning LLMs
微调大型语言模型 (LLM) 已成为使基础模型适应特定领域任务(例如客户支持、代码生成、法律分析、医疗保健助理和企业副驾驶)的最重要步骤之一。虽然全模型训练仍然昂贵,但开源库现在可以在适度的情况下有效地微调模型......阅读更多»用于微调 LLM 的 10 个开源库首先出现在《大数据分析新闻》上。
IEEE Transactions on Fuzzy Systems, Volume 34, Issue 4, April 2026
1) 客座社论:模糊大型模型专题:桥接不确定性和创造力作者:H. Yu、Q. Liu、W. Pedrycz、J. Lu 页数:1039 - 10402) FMA-Net:用于细粒度图像识别的模糊相互注意网络作者:H. Huang、J. -H.李,S.-K。 Oh, Z. Fu, J. H. Yoon, W. Pedrycz 页数:1041 - 10523) 通过大型语言模型对权衡总成本和客户满意度 VRP 中的上下文进行建模作者:H. -W.丁,Z.-S。 Chen, Y. Yang, W. DingPages: 1053 - 10634) 通过模糊隶属聚合审计大型语言模型中的部分数据集使用作
The Selective Targeting of Christianity Is No Accident
这是 Netflix 新剧《睡魔》中的一个场景。它描绘了教皇亲吻牧师的情景。以下是执行制片人和导演的姓名:Neil GaimanDavid S. GoyerAllan HeinbergSamuel KiethMike Dringenberg pic.twitter.com/W9NqwrSx1H — Red Pill Media (@RedPillMediaX) 2026 年 4 月 6 日基督教代表了抵抗集权的最后支柱之一 [...]
AI recruiting biz Mercor says it was 'one of thousands' hit in LiteLLM supply-chain attack
第一个公开的下游受害者,但不会是最后一个人工智能招聘初创公司 Mercor 证实,随着 Trivy 妥协的影响继续蔓延,它是受到 LiteLLM 供应链攻击影响的“数千家公司之一”。
SentinelOne autonomous detection blocks trojaned LiteLLM triggered by Claude Code
SentinelOne AI 在几秒钟内阻止了 LiteLLM 供应链攻击,无需人工干预即可自动阻止恶意代码。 SentinelOne 基于人工智能的安全检测并阻止了涉及受损 LiteLLM 软件包的供应链攻击。 SentinelOne 的 macOS 代理检测并阻止了由 Claude Code 在无意中安装了受感染的 LiteLLM 软件包后触发的恶意进程链。 [...]
Revisiting the Scaling Properties of Downstream Metrics in Large Language Model Training
虽然大型语言模型 (LLM) 的缩放法则传统上关注预训练损失等代理指标,但预测下游任务性能被认为是不可靠的。本文提出了一个直接框架来对培训预算中的基准性能扩展进行建模,从而挑战了这一观点。我们发现,对于固定的令牌与参数比,简单的幂律可以准确地描述多个流行下游任务的日志精度的缩放行为。我们的结果表明,直接方法比之前提出的两阶段程序更好地推断......
Accelerating LLM fine-tuning with unstructured data using SageMaker Unified Studio and S3
去年,AWS 宣布了 Amazon SageMaker Unified Studio 与 Amazon S3 通用存储桶之间的集成。这种集成使团队可以轻松地将存储在 Amazon Simple Storage Service (Amazon S3) 中的非结构化数据用于机器学习 (ML) 和数据分析用例。在这篇文章中,我们展示了如何将 S3 通用存储桶与 Amazon SageMaker Catalog 集成,以使用 Amazon SageMaker Unified Studio 微调 Llama 3.2 11B Vision Instruct 以实现视觉问答 (VQA)。
Athena: Intermediate Representations for Iterative Scaffolded App Generation with an LLM
使用大型语言模型 (LLM) 生成完整用户界面的代码具有挑战性。用户界面很复杂,它们的实现通常由多个相互关联的文件组成,这些文件共同指定每个屏幕的内容、屏幕之间的导航流以及整个应用程序中使用的数据模型。为 LLM 制作包含足够详细信息以生成完整用户界面的单个提示具有挑战性,即使如此,结果通常是一个大且难以理解的文件,其中包含所有生成的...
Shifting to AI model customization is an architectural imperative
在大型语言模型 (LLM) 的早期,我们已经习惯了每次新模型迭代时推理和编码能力都会大幅提升 10 倍。如今,这些跳跃已趋于平缓,变成增量收益。例外的是领域专业智能,其中真正的阶跃功能改进仍然是常态。当模型与组织融合时……