服务器关键词检索结果

更小、更智能、更快:Mistral AI 如何将边缘设备推向最前沿

Smaller, Smarter, and Faster: How Mistral AI is Bringing Edge Devices to the Forefront

边缘计算正在改变我们处理和管理数据的方式。现在,数据不再发送到云服务器,而是直接在设备上处理。这是一项变革性的进步,尤其是对于依赖实时响应的行业,如医疗保健、汽车和智慧城市。虽然云计算已经实现了大规模数据处理,但它还不够 […] 更小、更智能、更快:Mistral AI 如何将边缘设备推向前沿首先出现在 Unite.AI 上。

Oleg Labyntsev:“进口替代过程对网络钓鱼攻击进行了一定的调整”

Олег Лабынцев: «Процесс импортозамещения вносит определенные коррективы в проведение фишинговых атак»

UCSB 安全分析专家、GigaHackers 博客作者、Cyber​​ Prosvet 奖获得者 Oleg Labyntsev 向 Cyber​​ Media 门户网站介绍了渗透测试和 redtim 框架内网络钓鱼攻击的具体情况项目、用户最敏感的话题以及在进口替代的情况下使用社会工程进行攻击的具体情况 进行安全分析的典型基础设施是什么?它包含哪些元素? Oleg Labyntsev:如果使用进行测试的话?社会工程,那么就需要准备一个专用的服务器和域来部署基础设施进行测试。正确配置邮件服务器、DNS 服务器,准备网络钓鱼前端 - 用户单击网络钓鱼链接时将看到的 Web 界面,设置输入数据的日志

观测发现与超新星遗迹 G22.7-0.2 相关的新长周期射电瞬变

Observations detect a new long-period radio transient associated with supernova remnant G22.7-0.2

利用大成射电望远镜 (DART),中国天文学家发现了一个长周期瞬变事件。这个新发现的瞬变被命名为 DART J1832-0911,周期约为 44 分钟,与超新星遗迹 G22.7-0.2 有关。这一发现于 11 月 24 日在预印本服务器 arXiv 上报道。

水管破裂导致 NASA 太阳研究航天器的数据处理中断

Broken water pipe knocks out data processing for NASA sun-studying spacecraft

由于任务使用的服务器机房中的水管爆裂,美国宇航局太阳动力学观测站和 IRIS 探测器的数据处理暂时停止。

观测结果进一步揭示了三行星系统 TOI-396 的特性

Observations shed more light on the properties of three-planet system TOI-396

一个国际天文学家团队研究了一个由三个外星世界组成的行星系统,它们围绕恒星 TOI-396 运行。这项研究于 11 月 22 日发表在预印本服务器 arXiv 上,首次对这三颗行星的质量进行了测量,为整个系统的特性提供了更多启示。

构建使用 Amazon OpenSearch Serverless 和 Amazon Bedrock 读取语义缓存

Build a read-through semantic cache with Amazon OpenSearch Serverless and Amazon Bedrock

这篇文章介绍了一种优化基于 LLM 的应用程序的策略。鉴于对高效且经济高效的 AI 解决方案的需求日益增加,我们提出了一种使用重复数据模式的无服务器读取缓存蓝图。借助此缓存,开发人员可以有效地保存和访问类似的提示,从而提高系统的效率和响应时间。

最精确的宇宙大尺度重力图测试了爱因斯坦的理论

Most precise large-scale gravity map of universe tests Einstein’s theories

研究人员绘制了 600 万个星系的地图,这是对宇宙中重力在大尺度上如何起作用的最精确测试。这项调查在 arXiv 服务器上的几篇预印本论文中进行了详细介绍,使用了暗能量光谱仪 (DESI) 的数据。它追踪了引力在过去如何塑造宇宙 […]

MeerKAT 发现新的巨型射电星系

New giant radio galaxy discovered with MeerKAT

一个国际天文学家团队利用 MeerKAT 射电望远镜研究宇宙演化调查 (COSMOS) 领域的巨型射电星系。他们发现了一个以前从未报道过的新巨型射电星系。该发现发表在 11 月 11 日发表在预印本服务器 arXiv 上的一篇研究论文中。

面向张量并行 LLM 推理的低位通信

Towards Low-Bit Communication for Tensor Parallel LLM Inference

这篇论文被 NeurIPS 2024 的高效自然语言和语音处理 (ENLSP) 研讨会接受。张量并行提供了一种提高服务器大型语言模型 (LLM) 推理效率的有效方法,尽管增加了额外的通信成本。然而,随着服务器 LLM 规模不断扩大,它们将需要分布在更多设备上,从而增加了通信成本。解决这个问题的一种方法是量化,但目前的 LLM 方法往往避免量化张量并行需要传达的特征。利用……

使用 Amazon Bedrock 自动执行云安全漏洞评估和警报

Automate cloud security vulnerability assessment and alerting using Amazon Bedrock

本博文演示了使用 Amazon GuardDuty、Amazon Bedrock 和其他 AWS 无服务器技术对您的账户和工作负载进行安全漏洞评估的主动方法。此方法旨在主动识别潜在漏洞并及时向您的用户提供警报和建议,避免被动升级和其他损害。

天文学家检查带有红超巨星的 X 射线双星的性质

Astronomers inspect the nature of an X-ray binary with a red supergiant

一个国际天文学家团队对 X 射线双星 1eRASS J085039.9-421151 进行了多波长研究。该研究结果于 11 月 4 日发表在预印本服务器 arXiv 上,提供了有关该系统性质和特性的新信息。

观测探索恒星 PDS 453 的冰原行星盘

Observations explore icy protoplanetary disk of the star PDS 453

一个国际天文学家团队利用 ESO 的甚大望远镜 (VLT) 检查了一颗名为 PDS 453 的年轻恒星的冰冷原行星盘。这项新研究的结果发表在预印本服务器 arXiv 上,提供了有关该盘结构和成分的重要信息。

这款移动 3D 打印机可直接在地板上打印

This Mobile 3D Printer Can Print Directly on Your Floor

对于多部分项目来说,等待 3D 打印项目的每个部分完成、将其从打印机中取出,然后将其安装到位可能非常繁琐。如果有一种方法可以让您的打印机将其作品打印到您需要的确切位置,那会怎样?这就是 MobiPrint 的承诺,这是一种新型 3D 打印机器人,可以在房间内移动,将设计直接打印到地板上。MobiPrint 由华盛顿大学的 Daniel Campos Zamora 设计,由一台经过改装的现成 3D 打印机和一台家用真空机器人组成。首先,它会自主绘制其空间 — 无论是房间、走廊还是整层楼。然后,用户可以从预建库中进行选择,或上传自己的设计,打印在映射区域的任何位置。然后,机器人会穿过房间并打印设计

研究发现,eRO-QPE2 非常稳定

Quasi-periodic eruptions from eRO-QPE2 are remarkably stable, study finds

一个国际天文学家团队检查了来自指定为 eRO-QPE2 的准周期性喷发 (QPE) 的长期演变。研究发现,来自该源的 QPE 在超过三年半的调查期内非常稳定。该发现于 11 月 1 日在预印本服务器 arXiv 上报道。

MTS 子公司收购 Vinteo

«Дочка» МТС приобретает Vinteo

该公司期望在视频会议服务器解决方案领域占据领先地位。

协同行动 II 让国际刑警组织突击打击全球网络犯罪

Operation Synergia II sees Interpol swoop on global cyber crims

22,000 个 IP 地址被关闭,59 台服务器被查获,95 个国家/地区逮捕 41 人国际刑警组织报告称,在针对网络犯罪分子的大规模联合行动中,取得了重大胜利,逮捕了 41 人并查获了被认为用于邪恶目的的硬件。

医疗保健领域的云计算技术革命

The Technological Revolution of Cloud Computing in Healthcare

准确记录诊断、治疗历史和个人健康信息对于提供优质护理和确保患者安全都至关重要。在当今快节奏的医疗保健领域,医生和其他医务人员需要强大而安全的技术来有效管理患者记录。数据存储技术革命(如异地服务器)就是这样一种解决方案,[…] 医疗保健领域云计算技术革命一文首先出现在 AiiotTalk - 人工智能 | 机器人技术 | 技术上。

减小 AI 模型的大小

Reducing the Size of AI Models

在边缘设备上运行大型 AI 模型使用 Pixlr 创建的图像AI 模型,尤其是大型语言模型 (LLM),需要大量的 GPU 内存。例如,对于 2024 年 7 月发布的 LLaMA 3.1 模型,内存要求如下:80 亿参数模型需要 16 GB 内存(16 位浮点权重)更大的 4050 亿参数模型需要 810 GB(使用 16 位浮点数)在全尺寸机器学习模型中,权重表示为 32 位浮点数。现代模型具有数亿到数百亿(甚至数千亿)的权重。训练和运行如此大的模型非常耗费资源:它需要大量的计算(处理能力)。它需要大量的 GPU 内存。它会消耗大量的能源,特别是,造成这种能源消耗的最大因素是:- 使用 3