摘要 - 互联网,网络带宽和稳定性的快速发展变得越来越重要。随着用户数量的增加,如何使每个用户拥有高质量的服务(QoS)是一个紧迫的问题。5G切片允许灵活地管理每个用户的网络使用情况,这又可以优化整体网络使用情况并减少网络资源的消耗。5G切片可以灵活地管理每个用户的网络使用情况,以优化整体网络使用并减少网络资源消耗。在本文中,使用机器学习分析网络流量,并分析网络上的141个不同应用程序,并在不同的机器学习模型上进行实验。基于上述实验结果,提出了用于5G切片管理的算法。基于上述流量分析结果,我们将根据每个用户的当前网络流量动态配置和优化每个切片的资源。
IHS Markit | Technology通过分析过去15年监控摄像头的年度出货量,预计截至2019年底全球投入使用的摄像头数量为7.7亿颗,未来两年安装的摄像头数量将达到10亿颗以上[1]。基于人脸和车辆算法的人工智能已经在公安、交通等各个领域得到广泛应用。人工智能如何应用于智能交通行业是一个新的研究方向。目前,桥梁、岛、隧道的养护都是通过各种传感器和视频数据进行人工判断。随着桥梁行业的快速发展,各种传感器被快速部署,想要实现人工识别难度极大。随着人工智能技术的进步,特别是计算机视觉技术和神经网络技术的进步,人工智能辅助工程师对桥梁各种传感器数据和视频监控进行研判的可能性已经显现出来。但与此同时,云端AI模型在桥梁场景中的应用也暴露出一些问题,例如数据隐私、网络带宽限制、对时延的苛刻要求等。
摘要 在本文中,我们描述了 Apollo,据我们所知,这是世界上第一个用于数据中心网络的光电路交换机 (OCS) 的大规模生产部署。我们将首先描述促使数据中心内部进行光交换的基础设施挑战和用例。然后,我们深入研究数据中心应用对 OCS 的要求:平衡成本、端口数、交换时间和光学性能,这些要求推动了我们内部开发的基于 3D MEMS 的 OCS 的设计选择和实施细节。为了启用 Apollo 光交换层,我们使用循环器通过 OCS 实现双向链路,从而有效地将 OCS 基数加倍。OCS 和循环器的设计选择对于满足网络带宽、规模和成本目标至关重要。我们回顾了这些 OCS 和基于循环器的双向链路的 WDM 收发器技术的关键共同设计及其相应的物理缺陷,这些缺陷通过四代/速度的光互连实现。最后,我们总结了对硬件开发和相关应用未来方向的思考。
贝特提取的安全优化运营成本是成功产生收入的云系统和容量/资源效率的圣杯之一,是实现这一现实的关键因素。在主要云提供商的其他资源效率策略外,超额订购是一种极为普遍的实践,在该实践中,提供的虚拟资源比实际的物理能力更多,可以最大程度地减少对冗余能力的收入损失。虽然资源可以是任何类型的,包括计算,内存,电源或网络带宽,但我们重点介绍了虚拟CPU(VCPU)过度订阅的场景,因为VCPU内核主要是云服务的可计费单位,并且对业务以及用户以及用户以及用户也具有重大影响。对于无缝的云体验,虽然对提供商的成本效益,但要控制超额检查边缘的合适政策至关重要。狭窄的利润率导致利用不足的资源能力支出冗余,并且更广泛的利润率导致客户工作负载可能遭受资源争议的情况下的不足。
摘要 - 越来越多地提出了用于减少运行同时本地化和映射(SLAM)算法的移动设备的资源消耗的解决方案,其中大多数边缘辅助的SLAM系统假设移动设备之间的通信资源和边缘服务器之间的通信资源是无限制的,或者依靠HEURISTIC,或者依靠Heursistical来选择Edge的信息来传输Edge de Edge to the Edge the Edge the Edge the Edge。本文介绍了Adaptslam,这是一种边缘辅助的视觉(V)和Visual惯性(VI)SLAM系统,该系统适应了可用的通信和计算措施,基于我们开发的理论基础,我们开发了用于在移动设备中构建最佳本地和全球映射的关键框架(代表性框架)的子集(代表性框架)的子集(代表性框架)。我们实施了Adaptslam,以与最先进的开源VI-SLAM ORB-SLAM3框架合作,并证明,在受限的网络带宽下,将跟踪误差降低了62%,与最佳的基线方法相比。索引项 - 中等定位和映射,边缘计算,不确定性定量和最小化
人工智能和机器学习正在工业界和学术界得到广泛应用。这是由于人工智能的应用和准确性通过日益复杂的算法和模型迅速发展所推动的;这反过来又刺激了对专用硬件人工智能加速器的研究。鉴于进步的快速步伐,人们很容易忘记它们通常是在真空中开发和评估的,没有考虑完整的应用环境。本文强调需要对人工智能工作负载进行整体、端到端分析,并揭示“人工智能税”。我们在边缘数据中心部署和描述人脸识别。该应用程序是一个以人工智能为中心的边缘视频分析应用程序,使用流行的开源基础设施和机器学习工具构建。尽管使用了最先进的人工智能和机器学习算法,但该应用程序严重依赖于预处理和后处理代码。随着以人工智能为中心的应用程序受益于加速器承诺的加速,我们发现它们给硬件和软件基础设施带来了压力:随着人工智能加速的增加,存储和网络带宽成为主要瓶颈。通过专注于人工智能应用,我们表明,专门构建的边缘数据中心可以设计用于应对加速人工智能的压力,其 TCO 比来自同质服务器和基础设施的 TCO 低 15%。
摘要 使用实时平台、实时虚拟模拟器和建设性实体已用于提供改进的系统工程要求并允许客户参与整个开发和测试过程。例如,通过向操作员提供来自地理位置分散的群体的知识(信息、数据),以比以前更快、更有意义的方式进行了一系列网络中心作战 (NCO) 实验,以促进快速原型设计、操作员决策和协调行动。传感器、分析人员、决策者和效应器之间改进的信息处理和传输使这成为可能,同时网络带宽的提高和使用分布式交互式模拟 (DIS) 的“真实数据”网络。在战术边缘使用互联网协议 (IP) 网络也经过初步测试后快速原型化,使用基本 Link 16 网络利用现有网络上的新应用程序。实战系统,例如 F-15、F/A-18、倾转旋翼机、直升机和无人驾驶飞行器 (UAV),在多个实验中一起和单独使用,使用不同类型的战术通信,从联合战术信息分发系统 (JTIDS)/多功能信息分发系统 (MIDS) 到可扩展标记语言 (XML) 和 IP 的组合。先进的无线通信系统,例如软件可编程无线电、sa
人工智能和机器学习正在工业界和学术界得到广泛应用。这是由人工智能的应用和准确性通过日益复杂的算法和模型的快速发展推动的;这反过来又刺激了对专用硬件人工智能加速器的研究。鉴于进步的快速步伐,人们很容易忘记它们通常是在真空中开发和评估的,而没有考虑完整的应用环境。本文强调需要对人工智能 (AI) 工作负载进行整体、端到端分析,并揭示“人工智能税”。 我们在边缘数据中心部署和描述人脸识别。该应用程序是一个以人工智能为中心的边缘视频分析应用程序,使用流行的开源基础设施和机器学习 (ML) 工具构建。尽管使用了最先进的人工智能和机器学习算法,但该应用程序严重依赖于预处理和后处理代码。随着以 AI 为中心的应用程序受益于加速器所承诺的加速,我们发现它们对硬件和软件基础设施施加了压力:随着 AI 加速的增加,存储和网络带宽成为主要瓶颈。通过专门针对 AI 应用程序,我们表明,专用边缘数据中心可以设计用于加速 AI 的压力,其 TCO 比来自同质服务器和基础设施的 TCO 低 15%。
摘要ML的广泛采用导致对GPU硬件的需求很高,因此,公共云中GPU的严重短缺。通常很难在单个云区域分配足够数量的GPU来训练或微调当今的大型ML模型。如果用户愿意使用不同地理区域的设备进行ML培训工作,则可以访问更多的GPU。但是,GPU节点与较低的网络带宽连接,并且云提供商为跨地理区域的数据传输提供了额外的费用。在这项工作中,我们探讨了何时以及如何有意义地利用跨区域和地区进行分布式ML培训的GPU。我们根据不同模型并行性策略的计算和通信模式分析了跨区域培训的吞吐量和成本影响,开发了一种基于配置文件的分析模型,用于估计培训吞吐量和成本,并为有效分配地理分配资源提供指南。我们发现,尽管在节点跨越地理区域时,ML训练吞吐量和成本会显着降低,但使用管道等级的跨区域训练是实用的。
随着近期研究和开发的进行,“边缘”本身仍然是一个模糊的术语。不同的社区和研究人员 2 缺乏关于边缘是什么、它位于何处以及谁提供它的普遍接受的定义。人们对其属性有共同的理解:与云相比,其特征是接近性(延迟和拓扑)、网络容量增加(有效实现的数据传输速率)、计算能力较低、规模较小、设备异构性较高。与终端设备(最后一跳)相比,它具有增加的计算和存储资源。它是一个抽象实体,可以卸载计算和存储,而无需绕道到云端。当前的 AI 和 ML 方法需要强大的计算基础设施 [5],而数据中心拥有充足的可用计算和数据存储资源,可以更好地满足这一需求。但是,将必要的原始数据发送到云端会给网络带宽和吞吐量带来压力。同时,组织通常不太愿意与商业云提供商共享(可能受到限制的)数据。快速发展的边缘 AI 领域解决了这一紧张局势。如图 1 所示,边缘 AI 已逐渐进入主流服务领域,例如联网汽车、实时游戏、智能工厂和医疗保健。从基础设施的角度来看,边缘环境为 AI 提供了一个独特的层,