Llama关键词检索结果

在旧笔记本电脑上运行 Qwen3.5:轻量级本地代理 AI 设置指南

Run Qwen3.5 on an Old Laptop: A Lightweight Local Agentic AI Setup Guide

使用 Ollama 和 OpenCode 将老化的笔记本电脑变成私人 AI 工作区,进行本地编码、测试和实验。

复杂与智能系统,第 12 卷,第 3 期,2026 年 3 月

Complex & Intelligent Systems, Volume 12, Issue 3, March 2026

1) 智能协作:用于机器人细胞动态重新调度的预测神经网络作者:Matthias Bues、Maurizio Faccio、Benjamin Wingert2) 基于仿射非负协作表示的模式分类作者:He-Feng Yin、Xiao-Jun Wu、Zi-Qi Li3) 新生区块链的 51% 攻击漏洞:全面综述作者:Buti Sello、Jianming Yong、陶晓辉4) 资源受限设备上的高效多语言垃圾邮件检测:Gemma 3、Qwen 3 和 Llama 3.2 模型的 QLoRA 微调比较分析作者:Hamza Rauf、Umair Khan、Aurang Zaib5) 一种基于动态辅助任务构

使用 SageMaker Unified Studio 和 S3 加速 LLM 对非结构化数据的微调

Accelerating LLM fine-tuning with unstructured data using SageMaker Unified Studio and S3

去年,AWS 宣布了 Amazon SageMaker Unified Studio 与 Amazon S3 通用存储桶之间的集成。这种集成使团队可以轻松地将存储在 Amazon Simple Storage Service (Amazon S3) 中的非结构化数据用于机器学习 (ML) 和数据分析用例。在这篇文章中,我们展示了如何将 S3 通用存储桶与 Amazon SageMaker Catalog 集成,以使用 Amazon SageMaker Unified Studio 微调 Llama 3.2 11B Vision Instruct 以实现视觉问答 (VQA)。

地球以外的生命在没有液态水的情况下如何生存

How Life Beyond Earth Might Live Without Liquid Water

McKenzie Prillaman,Sonian 地球上所有已知的生物都需要水。赋予生命的液体组成

llama.cpp:快速本地 LLM 推理、硬件选择和调整

llama.cpp: Fast Local LLM Inference, Hardware Choices & Tuning

将公共 MCP 服务器部署为 API 端点,并使用函数调用将其工具集成到 LLM 工作流程中。

加速自定义 LLM 部署:使用 Oumi 进行微调并部署到 Amazon Bedrock

Accelerate custom LLM deployment: Fine-tune with Oumi and deploy to Amazon Bedrock

在这篇文章中,我们将展示如何在 Amazon EC2 上使用 Oumi 微调 Llama 模型(可以选择使用 Oumi 创建合成数据)、在 Amazon S3 中存储工件以及使用自定义模型导入部署到 Amazon Bedrock 进行托管推理。

Meta 的新 AI 对手 GPT-4

Meta’s New AI Rivals GPT-4

为什么重要:Meta 的新 AI 竞争对手 GPT-4 和 LLaMA 3,一个为企业、道德和速度而构建的开源模型。