内存关键词检索结果

PUMAKIT,一种使用先进隐身机制的复杂 rootkit

PUMAKIT, a sophisticated rootkit that uses advanced stealth mechanisms

研究人员发现了 PUMAKIT,这是一种能够隐藏文件、提升权限以及逃避系统工具和检测的 Linux rootkit。Elastic Security Lab 的研究人员发现了一种名为 PUMAKIT 的新可加载内核模块 (LKM) rootkit,它支持高级逃避机制。PUMAKIT 采用多阶段设计,包括 dropper、内存驻留可执行文件和 rootkit。它利用名为 […] 的 LKM rootkit

科学家发现“BadRAM”缺陷,促使全球修复 AMD 处理器

Scientists uncover ‘BadRAM’ flaw, prompting global fixes for AMD processors

计算机内存中发现了一个严重的安全漏洞,促使全球对 AMD 处理器进行修复。该问题由绰号为“BadRAM”的漏洞引起,涉及恶意内存模块,这些模块可以欺骗计算机处理器,使其泄露敏感数据或破坏操作。来自鲁汶天主教大学(比利时)、吕贝克大学(德国)和 […]The post Scientists discover ‘BadRAM’ flaw, initiating to the global fixes for AMD process appeared first on Knowridge Science Report.

通过调整材料,科学家创造了记忆晶体管

By tweaking materials, scientists create transistors that remember

霍普金斯大学的研究人员揭示了电气开关的意外特性,可能会影响计算机内存

AI 对电力的需求日益增长:数据中心准备好跟上了吗?

AI’s Growing Appetite for Power: Are Data Centers Ready to Keep Up?

随着人工智能 (AI) 的飞速发展,其能源需求正使数据中心不堪重负。下一代人工智能技术(如生成式人工智能 (genAI))不仅改变了行业,而且其能源消耗影响着几乎所有数据服务器组件,从 CPU 和内存到加速器和网络。GenAI 应用程序(包括 Microsoft 的 Copilot 和 OpenAI 的 ChatGPT)需要更多的能源 […] 文章 AI 对电力的日益增长的需求:数据中心准备好跟上了吗?首先出现在 Unite.AI 上。

“意外发现”创造了通用存储器的候选者——一种消耗功率少十亿倍的奇怪半导体

'Accidental discovery' creates candidate for universal memory — a weird semiconductor that consumes a billion times less power

研究人员的一次偶然发现可能会大幅降低下一代内存技术所需的能量。

风险投资主管揭示“有史以来最重要的图表”

VC Head Reveals "Most Important Graph Ever Conceived"

VC 负责人揭示“有史以来最重要的图表” 美国商人和风险投资家 Stephen Jurvetson 在 X 上的一篇文章中阐述了摩尔定律在计算能力进步方面超过一个世纪的历史。Jurvetson 是 Future Ventures 的创始人,曾为 Skype、SpaceX、Tesla、Zoox、Boring Company 和其他初创公司提供资金,他用颜色标记了从机械到继电器到真空管到晶体管再到集成电路的转变。他指出,“摩尔定律最近从 GPU(绿点)过渡到 ASIC(黄点和橙点),而 NVIDIA Hopper 架构本身就是一个过渡物种——从 GPU 到 ASIC,8 位性能针对 AI 模型进行

PSLoramyra:无文件恶意软件加载器的技术分析

PSLoramyra: Technical Analysis of Fileless Malware Loader

在本文中,ANY.RUN 的分析师团队将探索一种名为 PSLoramyra 的恶意加载程序。这种高级恶意软件利用 PowerShell、VBS 和 BAT 脚本将恶意负载注入系统,直接在内存中执行它们,并建立持久访问。PSLoramyra 被归类为无文件加载程序,通过完全加载其主要负载来绕过传统检测方法 […]PSLoramyra:无文件恶意软件加载程序的技术分析首先出现在 ANY.RUN 的网络安全博客上。

Redis 入门:安装和设置指南

Getting Started with Redis: Installation and Setup Guide

Redis 是一种开源内存数据结构存储,以其出色的速度和可扩展性而闻名。 本指南全面概述了在各种操作系统(包括 Linux、Windows 和 macOS)上安装和设置 Redis。

Amazon SageMaker Inference 现在支持 G6e 实例

Amazon SageMaker Inference now supports G6e instances

SageMaker 上的 G6e 实例解锁了以经济高效的方式部署各种开源模型的能力。凭借卓越的内存容量、增强的性能和成本效益,这些实例为希望部署和扩展其 AI 应用程序的组织提供了极具吸引力的解决方案。处理更大模型、支持更长上下文长度和保持高吞吐量的能力使 G6e 实例对于现代 AI 应用程序特别有价值。

Google 的 Gemini AI 推出记忆功能

Google’s Gemini AI Introduces Memory Feature

重要性:了解 Google 的 Gemini AI 内存如何彻底改变用户交互,提供个性化、无缝的体验。

选举周货币市场基金流入量巨大,银行存款增加,贷款量减少

Election Week Saw Huge Money-Market Fund Inflows, Bank Deposits Rise, Loan Volumes Shrink

选举周货币市场基金流入量巨大,银行存款增加,贷款量减少货币市场基金连续第二周出现大量资金流入(+816 亿美元),推动管理的总资产达到 6.66 万亿美元的历史新高...来源:彭博社虽然货币市场基金激增,但美国银行存款总额却小幅下降(经季节性调整后为 -75 亿美元)...来源:彭博社有趣的是,在未经季节性调整的基础上,截至 11 月 6 日(包括选举)的一周内,总存款小幅增加了 37 亿美元...来源:彭博社不包括外国存款,美国银行的国内存款在季节性调整(+120 亿美元)和正常季节性调整(+167 亿美元)基础上均有所增加...来源:彭博社选举周贷款量大幅萎缩...来源:彭博社最后,美联储

Ymir 勒索软件,一种新的隐秘勒索软件在野外生长

Ymir ransomware, a new stealthy ransomware grow in the wild

卡巴斯基警告称,在系统被 RustyStealer 恶意软件入侵后不久,新的 Ymir 勒索软件就被部署在攻击中。卡巴斯基研究人员发现了一个名为 Ymir 勒索软件的新勒索软件家族,攻击者在通过 PowerShell 命令入侵系统后部署了该勒索软件。Ymir 包括检测规避功能,使用 malloc、memmove 和 memcmp 等函数在内存中执行任务。攻击者最初访问系统 […]

Ymir 勒索软件,一种新型隐秘勒索软件正在野外滋生

Ymir ransomware, a new stealthy ransomware grow in the wild

卡巴斯基警告称,在系统被 RustyStealer 恶意软件入侵后不久,新的 Ymir 勒索软件就被部署在攻击中。卡巴斯基研究人员发现了一个名为 Ymir 勒索软件的新勒索软件家族,攻击者在通过 PowerShell 命令入侵系统后部署了该勒索软件。Ymir 包括检测规避功能,使用 malloc、memmove 和 memcmp 等函数在内存中执行任务。攻击者最初访问系统 […]

适用于任何拉米牌变体的核心 AI

Core AI For Any Rummy Variant

拉米纸牌 AI 的分步指南作者使用 DALL-EMotivation 生成的图像当我正在为拉米纸牌游戏开发强化学习 (RL) 模型时,我到了需要 AI 对手进行环境设置并为模型训练做出贡献的阶段。然而,在网上搜索后,我发现为拉米纸牌游戏创建 AI 的资源有限,而且可用的少数解决方案对我来说太慢了。由于 AI 将用于训练,(没有它,训练时间已经很长),因此 AI 需要在处理速度和内存使用方面快速高效地运行。不用说,蛮力解决方案根本行不通,所以我不得不尝试各种算法和优化技术来实现适合训练的复杂性和速度。那么为什么要阅读这些文章?我们将在这里构建的是通用的、适应性强的,适用于您可能正在开发的几乎任何

最佳无代码 LLM 应用程序构建器

Best No-Code LLM App Builders

通过轻松挑选和放置组件并连接它们来构建 LLM 应用程序,例如向量存储、Web 搜索、内存和自定义提示。

使用矢量量化优化上下文语音识别以实现高效检索

Optimizing Contextual Speech Recognition Using Vector Quantization for Efficient Retrieval

神经语境偏差允许语音识别模型利用语境相关信息,从而提高转录准确性。然而,偏差机制通常基于音频和偏差条目目录之间的交叉注意模块,这意味着计算复杂性可能会对偏差目录的大小造成严重的实际限制,从而影响准确性的提高。这项工作提出了一种基于矢量量化的交叉注意评分近似值,并实现了计算和内存高效的大偏差使用……

减小 AI 模型的大小

Reducing the Size of AI Models

在边缘设备上运行大型 AI 模型使用 Pixlr 创建的图像AI 模型,尤其是大型语言模型 (LLM),需要大量的 GPU 内存。例如,对于 2024 年 7 月发布的 LLaMA 3.1 模型,内存要求如下:80 亿参数模型需要 16 GB 内存(16 位浮点权重)更大的 4050 亿参数模型需要 810 GB(使用 16 位浮点数)在全尺寸机器学习模型中,权重表示为 32 位浮点数。现代模型具有数亿到数百亿(甚至数千亿)的权重。训练和运行如此大的模型非常耗费资源:它需要大量的计算(处理能力)。它需要大量的 GPU 内存。它会消耗大量的能源,特别是,造成这种能源消耗的最大因素是:- 使用 3

动态执行

Dynamic Execution

让您的 AI 任务区分困难和简单问题在这篇立场文件中,我讨论了一个前提,即许多潜在的性能增强都被搁置了,因为我们通常不解决动态执行的潜力。我想我需要首先定义在这种情况下什么是动态执行。正如你们许多人无疑知道的那样,我们经常通过仔细研究模型本身以及可以做些什么来使该模型的处理更高效(可以通过更低的延迟、更高的吞吐量和/或节能来衡量)来解决性能优化问题。这些方法通常解决模型的大小问题,因此我们会寻找压缩模型的方法。如果模型较小,则内存占用和带宽要求会得到改善。一些方法还解决了模型中的稀疏性问题,从而避免了无关紧要的计算。不过……我们只关注模型本身。这绝对是我们想要做的事情,但是还有其他机会可以利用