GenAI with Python: Coding Agents
构建一个数据科学家 AI,可以使用 SQL 查询数据库、使用 Python 分析数据、使用 HTML 编写报告以及执行机器学习(无需 GPU……继续阅读 Towards Data Science »
Elon Musk reveals xAI’s “Colossus,” probably the most powerful supercomputer in the world
埃隆·马斯克的初创公司 xAI 公布了其最新成果:一台名为 Colossus 的超级计算机。这个庞大的 AI 训练系统目前拥有 100,000 个 Nvidia Hopper H100 处理器。Colossus 位于田纳西州孟菲斯,将扩充 50,000 个 Nvidia 新的、更先进的 H200 系列芯片,其性能大约是 H100 的两倍。如果 Colossus 还不是地球上最强大的计算机,这几乎肯定会使它成为地球上最强大的计算机。作为背景,Meta 宣布计划在 2024 年底前积累 350,000 个 H100 GPU,而 OpenAI 被认为只会使用大约 25,000 个 GPU 用于 GP
AMD приобретает производителя серверов
ZT Systems 专家加入公司员工队伍将有助于其快速测试和发布用于 AI 的 GPU,以满足最大的云运营商的需求。
Datacenters powered by solar farms
您如何看待这个商业创意?寻找阳光充足的廉价未使用土地(例如沙漠地区)在那里建造太阳能发电场和数据中心(用于 AI/LLM 推理;使用 ASIC 实现高能效或 GPU)使用太阳能为这些数据中心供电(本质上是免费能源)按代币收费,或可能在未来进行拍卖竞标(为更高的情报访问权限支付更多费用)远程位置的延迟可能不是问题……情报处理通常需要时间 + Starlink 可以处理它我的观点:未来几年对情报(AI/LLM 推理、计算)的需求将增长,能源需求也将增长。可能需求大于供应。一些参与者会为情报支付溢价,因为他们的用例/业务证明了这一点。尖端的 LLM(例如 GPT-10..)可能会保持关闭状态,仅通过
硅谷的 Figure 揭开了其下一代 Figure 02 对话式人形机器人的面纱,该机器人利用 NVIDIA Omniverse 和 NVIDIA GPU 执行完全自主的任务。 Figure 表示,它最近在宝马集团位于南卡罗来纳州斯帕坦堡的生产线上测试了 Figure 02 的数据收集和用例培训。Figure 02 上市仅 10 个月 阅读文章
MOE & MOA for Large Language Models
向专家小组寻求建议图片由作者提供(AI 生成 leonardo.ai)大型语言模型 (LLM) 无疑席卷了科技行业。它们的迅速崛起得益于来自维基百科、网页、书籍、大量研究论文以及我们喜爱的社交媒体平台的用户内容的大量数据。数据和计算密集型模型一直在狂热地整合来自音频和视频库的多模态数据,并且数月来一直在使用数万个 Nvidia GPU 来训练最先进的 (SOTA) 模型。所有这些都让我们怀疑这种指数级增长是否能持续下去。这些 LLM 面临的挑战很多,但让我们在这里探讨一些。成本和可扩展性:较大的模型可能需要花费数千万美元来训练和服务,成为日常应用程序采用的障碍。 (参见 GPT-4 的训练成本
Diffusion Model from Scratch in Pytorch
去噪扩散概率模型 (DDPM) 的实现 MNIST 上的 DDPM 示例 — 作者提供的图片简介一般来说,扩散模型是一种生成式深度学习模型,它从学习到的去噪过程中创建数据。扩散模型有很多种,最流行的通常是文本条件模型,它可以根据提示生成特定的图像。一些扩散模型 (Control-Net) 甚至可以将图像与某些艺术风格融合在一起。下面是一个例子:作者使用经过微调的 MonsterLabs 的 QR Monster V2 提供的图片如果您不知道这幅图像有什么特别之处,请尝试远离屏幕或眯起眼睛来查看图像中隐藏的秘密。扩散模型有许多不同的应用和类型,但在本教程中,我们将构建基础的无条件扩散模型 DDP
GenAI with Python: LLM vs Agents
创建一个 AI 小队,无需 GPU 即可在笔记本电脑上自动执行任何操作继续阅读 Towards Data Science »
The Ultimate Handbook for LLM Quantization
深入研究 LLM 量化和技术照片由 Siednji Leon 在 Unsplash 上拍摄 CPU 上的 LLM?是的,你没听错。从处理对话到创建自己的图像,AI 自诞生以来已经取得了长足的进步。但它也带来了瓶颈。随着模型的扩展,它们的计算需求也在增加。AI 开始严重依赖计算能力。为了满足这些需求,我们转向了 GPU,剩下的就是历史了。许多设备没有强大的 GPU,因此错过了 AI 功能。有必要缩小这些模型的大小和功能,以便在计算能力有限的设备(如手机或仅配备 CPU 的计算机)上运行 AI 模型。早期的努力包括修剪和蒸馏等技术。然而,这些方法对于通常具有大规模架构的 LLM 来说并不可行。最近
Nvidia Faces French Antitrust Charges Amidst Market Dominance Concerns
Nvidia 现在是全球最有价值的公司,但受到法国反垄断监管机构的审查,他们正准备指控这家科技巨头存在反竞争行为。此举凸显了欧盟致力于维护科技行业公平竞争的决心。Nvidia 以其在人工智能和机器学习中必不可少的图形处理单元 (GPU) 而闻名,它被指控利用其市场地位来压制竞争。潜在的处罚可能包括巨额罚款和强制改变 Nvidia 的商业行为,从而影响其竞争战略和市场影响力。 Nvidia 的市场主导地位和监管审查 Nvidia 成立于 1993 年,从一家 [...]
Charging Ahead: Breakthrough Sodium Battery Technology Ushers in New Era of Safety and Efficiency
由 Sayan Das 博士领导的研究小组与印度 IIT Kharagpur 低温工程中心的 Venimadhav Adyam 教授及其同事美国印第安纳州普渡大学的 Vilas Pol 教授一起,在钠金属电池的开发方面取得了突破。他们的创新成果发表在同行评审期刊《能源》上 […]