GGUF关键词检索结果

使用 Imatrix 和 K-Quantization 进行 GGUF 量化以在您的 CPU 上运行 LLM

GGUF Quantization with Imatrix and K-Quantization to Run LLMs on Your CPU

为您的 CPU 提供快速准确的 GGUF 模型继续阅读 Towards Data Science »

使用 Unsloth 对 Llama 3.2 进行微调

Fine-tuning Llama 3.2 Using Unsloth

Unsloth 是一个用户友好的框架,为大型语言模型提供快速推理和微调。 它还支持以多种格式保存模型,包括 vLLM 和 GGUF。