浮点关键词检索结果

Nvidia 的迷你“桌面超级计算机”比笔记本电脑强大 1,000 倍 - 而且可以装进你的包里

Nvidia's mini 'desktop supercomputer' is 1,000 times more powerful than a laptop — and it can fit in your bag

新款 Project Digits 迷你 PC 为本地 AI 处理和数据科学提供了千万亿次浮点运算的能力。

使用 Amazon SageMaker 模型并行高效训练具有大序列长度的模型

Efficiently train models with large sequence lengths using Amazon SageMaker model parallel

在本文中,我们将演示 Amazon SageMaker 模型并行库 (SMP) 如何通过支持新功能来满足这一需求,例如用于加速训练性能的 8 位浮点 (FP8) 混合精度训练和用于处理大输入序列长度的上下文并行性,从而扩展其现有功能的列表。

减小 AI 模型的大小

Reducing the Size of AI Models

在边缘设备上运行大型 AI 模型使用 Pixlr 创建的图像AI 模型,尤其是大型语言模型 (LLM),需要大量的 GPU 内存。例如,对于 2024 年 7 月发布的 LLaMA 3.1 模型,内存要求如下:80 亿参数模型需要 16 GB 内存(16 位浮点权重)更大的 4050 亿参数模型需要 810 GB(使用 16 位浮点数)在全尺寸机器学习模型中,权重表示为 32 位浮点数。现代模型具有数亿到数百亿(甚至数千亿)的权重。训练和运行如此大的模型非常耗费资源:它需要大量的计算(处理能力)。它需要大量的 GPU 内存。它会消耗大量的能源,特别是,造成这种能源消耗的最大因素是:- 使用 3

每周回顾 2024 年 10 月 18 日

Weekly Review 18 October 2024

我上周在 Twitter 上发布的一些有趣链接(我也在 Mastodon、Threads、Newsmast 和 Bluesky 上发布了这些链接):恶意软件作者正在使用生成式人工智能:https://www.bleepingcomputer.com/news/security/openai-confirms-threat-actors-use-chatgpt-to-write-malware/人工智能是否会接管我们的大部分思维,使我们变得愚蠢?https://www.nzherald.co.nz/hawkes-bay-today/hastings-leader/use-it-or-lose-t

工资、就业不由供求决定

Wages, Employment Not Determined By Supply And Demand

1.0 简介我想我已经有一段时间没有提出过这样的介绍性示例了,在这个示例中,在给定净产出水平的情况下,工资上涨与企业想要雇用更多劳动力有关。此示例是作为垂直整合企业的会计问题提出的。在此示例中,使用有理数进行精确计算非常繁琐。我估计如果有人想检查这一点,他们会使用电子表格。据我所知,Microsoft Excel 使用双精度浮点数。2.0 技术一家生产玉米的竞争性垂直整合企业的经理知道表 1 中列出的四种生产过程。玉米是一种消费品,也是一种资本品,即用于生产其他商品的生产商品。事实上,铁、钢和玉米在这个例子中都是资本品。第一个过程生产铁,第二个过程生产钢,后两个过程生产玉米。每个过程都表现出规