CPU关键词检索结果

Ubitium 获得 370 万美元融资,利用通用 RISC-V 处理器彻底改变计算

Ubitium Secures $3.7M to Revolutionize Computing with Universal RISC-V Processor

半导体初创公司 Ubitium 推出了一款突破性的通用处理器,有望重新定义计算工作负载的管理方式。这款创新芯片将处理能力整合到一个高效的单元中,无需 CPU、GPU、DSP 和 FPGA 等专用处理器。通过摆脱传统的处理架构,Ubitium 将简化 […]The post Ubitium 获得 370 万美元,通过通用 RISC-V 处理器彻底改变计算方式首次出现在 Unite.AI 上。

每周回顾 2024 年 11 月 8 日

Weekly Review 8 November 2024

我上周在 Twitter 上发布的一些有趣的链接(我也在 Mastodon、Threads、Newsmast 和 Bluesky 上发布了这些链接):我们需要非常小心地构建更好的人工智能,而无需人类参与干预:https://arstechnica.com/ai/2024/10/the-quest-to-use-ai-to-build-better-ai/老实说,他关于人工智能被炒作的说法并没有错。而且我同意,一旦炒作逐渐平息,它就会变得有用:https://www.tomshardware.com/tech-industry/artificial-intelligence/linus-torv

不,米歇尔。凯瑟琳没有支持你。

No, Michele. Catherine Did Not Endorse You.

昨天,现任北卡罗来纳州立大学校长凯瑟琳·特鲁伊特 (Catherine Truitt) 发布了一张自己站在“我投票了,你投票了吗?”标语前的照片。她说:“我们的 @ncpublicschools 学生应该得到一位经验丰富的学校领导。”特鲁伊特本可以消除所有疑虑,只需说她投票给了莫·格林 (Mo Green)。她暗示她不会……​​继续阅读不,米歇尔。凯瑟琳没有支持你。

微软的推理框架将 1 位大型语言模型带入本地设备

Microsoft’s Inference Framework Brings 1-Bit Large Language Models to Local Devices

2024 年 10 月 17 日,微软宣布推出 BitNet.cpp,这是一个旨在运行 1 位量化大型语言模型 (LLM) 的推理框架。BitNet.cpp 是 Gen AI 的一项重大进展,它能够在标准 CPU 上高效部署 1 位 LLM,而无需昂贵的 GPU。这一发展使 LLM 的访问变得民主化,使其可以在各种 […]文章《微软的推理框架将 1 位大型语言模型带到本地设备》首先出现在 Unite.AI 上。

Redis 蜜罐:具有易受攻击的 Redis 数据库的服务器揭示了用于隐藏加密货币挖掘过程的新 SkidMap 修改

Redis honeypot: server with vulnerable Redis database reveals new SkidMap modification used to hide cryptocurrency mining process

2024 年 10 月 3 日Doctor Web 病毒分析师发现了一种新的 rootkit 修改版,该修改版会在受感染的 Linux 机器上安装 Skidmap 挖矿木马。该 rootkit 被设计为一个恶意内核模块,通过提供有关 CPU 使用率和网络活动的虚假信息来隐藏矿工的活动。这种攻击似乎是无差别的,主要针对企业部门——大型服务器和云环境——在这些领域可以最大限度地提高挖矿效率。Redis 数据库管理系统是世界上最受欢迎的 NoSQL 数据库:Redis 服务器被 X(前身为 Twitter)、Airbnb、亚马逊等大型公司使用。它的优势显而易见:最高性能、极小的内存占用以及对各种数据

董事会就威瑟斯彭雕像做出决定

Board of Trustees issues decision on Witherspoon statue

决定根据 CPUC 命名委员会的报告作出。

CREVIS 选择 Pleora eBUS 解决方案用于最新一代 GigE Vision 和 USB3 Vision 相机

CREVIS Chooses Pleora eBUS Solution for Latest Generation of GigE Vision and USB3 Vision Cameras

与竞争方法相比,eBUS Receive 将 CPU 使用率降低了 20% 以上,确保机器视觉应用的低延迟和高可靠性

LLM 量化的终极手册

The Ultimate Handbook for LLM Quantization

深入研究 LLM 量化和技术照片由 Siednji Leon 在 Unsplash 上拍摄 CPU 上的 LLM?是的,你没听错。从处理对话到创建自己的图像,AI 自诞生以来已经取得了长足的进步。但它也带来了瓶颈。随着模型的扩展,它们的计算需求也在增加。AI 开始严重依赖计算能力。为了满足这些需求,我们转向了 GPU,剩下的就是历史了。许多设备没有强大的 GPU,因此错过了 AI 功能。有必要缩小这些模型的大小和功能,以便在计算能力有限的设备(如手机或仅配备 CPU 的计算机)上运行 AI 模型。早期的努力包括修剪和蒸馏等技术。然而,这些方法对于通常具有大规模架构的 LLM 来说并不可行。最近

让您的计算机保持凉爽和高效的静默革命

The Quiet Revolution in Keeping Your Computer Cool and Efficient

不断突破计算能力界限的追求凸显了一个重大挑战:有效管理中央处理器 (CPU)(计算机的大脑)产生的热量。传统的冷却方法主要使用风扇吹风,由于空气的基本热处理特性和移动可靠性,它们已经达到了极限[...]

Isaac Gym:用于机器人学习的高性能基于 GPU 的物理模拟

Isaac Gym: High Performance GPU-Based Physics Simulation For Robot Learning

Isaac Gym 提供了一个高性能学习平台,可直接在 GPU 上训练各种机器人任务的策略。物理模拟和神经网络策略训练都驻留在 GPU 上,并通过直接将数据从物理缓冲区传递到 PyTorch 张量进行通信,而无需经历任何 CPU 瓶颈。这使得在单个 GPU 上进行复杂机器人任务的训练时间极快,与使用基于 CPU 的模拟器和 GPU 进行神经网络的传统 RL 训练相比,速度提高了 2-3 个数量级。

NVIDIA 为 Arm 带来 CUDA 支持,为百亿亿次计算开辟新道路

NVIDIA обеспечивает поддержку CUDA для Arm, пролагая новый путь к вычислениям экзафлопсного уровня

NVIDIA 昨天宣布支持基于 Arm 的 CPU,使制造商能够创建更具成本效益的超级计算机,用于支持人工智能算法的百亿亿次计算。

Chris Lattner:编译器、LLVM、Swift、TPU 和 ML 加速器

Chris Lattner: Compilers, LLVM, Swift, TPU, and ML Accelerators

Chris Lattner 是 Google 的高级总监,负责多个项目,包括 CPU、GPU、TensorFlow 的 TPU 加速器、TensorFlow 的 Swift,以及幕后进行的各种机器学习编译器魔法。他是世界上编译器技术的顶级专家之一,这意味着他深刻理解硬件和软件如何结合在一起创建高效代码的复杂性。他创建了 LLVM 编译器基础架构项目和 CLang 编译器。他领导了 Apple 的主要工程工作,包括创建 Swift 编程语言。他还曾在特斯拉短暂担任自动驾驶软件副总裁,当时特斯拉从头开始为自动驾驶仪构建内部软件基础架构。如果您想了解有关此播客的更多信息,请访问 https://le