GPU托管,LLM和看不见的后门

Big AI在大型硬件上运行。目前,该硬件是GPU,否认,堆叠和旋转云基础架构24/7,直到某件事破裂之前,没有人双重检查。每个人都专注于LLMS所说和做的事情 - 但不是他们的住所或训练方式。那个后端?这是一团糟。而且它很开。

来源:SecureWorld News _云安全
Big AI在大型硬件上运行。目前,该硬件是GPU,否认,堆叠和旋转云基础架构24/7,直到某件事破裂之前,没有人双重检查。每个人都专注于LLMS所说和做的事情 - 但不是他们的住所或训练方式。那个后端?这是一团糟。而且它很开放。这是现代网络安全的盲点,因为我们当中并没有很多人知道GPU对AI的重要性。尽管公司对迅速注射和越狱的公司痴迷,但真正的威胁是隐藏在基础架构层:Insecure GPU GPU托管环境,这些环境为当今最强大的型号助长了型号。这些是每天租用数千美元的GPU。但是,在急于进行扩展时,速度赢得了安全的胜利。每次。什么使GPU托管如此脆弱?培训大语言模型(LLMS)不像运行WordPress网站或托管SaaS仪表板。它是计算重量和记忆力密集的,更不用说它经常分布在数十个或数百个节点上。这种复杂性造成了混乱。混乱是攻击者壮成长的理想环境。let打破了关键问题:1。快速部署,懒惰的配置实例通常会迅速旋转(有时是自动的),并且经常被多个租户重复使用。实际上,这意味着安全最佳实践被绕过。 SSH键共享。默认密码不会更改。容器以特权模式运行。一切都不应该发生,发生2。贫穷的租户隔离租户环境是攻击者的金矿。薄弱的隔离边界意味着有人租用附近的实例可能会窥视您的空间。如果恶意演员特别坚持,甚至像DeepSeek这样的大型提供者也可能会受到损害。与传统的VM不同,GPU托管服务器通常共享内存,I/O,并以无法干净分开的用户的方式进行调度系统。3。共享内存,共享风险这是一个很大的风险:GPU依赖共享的内存体系结构。如果一个租户的程序