1。Srikar Kasi和Kyle Jamieson。朝着无线网络中的LDPC解码的量子信念传播。Mobicom'20。2。Minsung Kim,Davide Venturell,Kyle Jamieson。 利用量子退火进行集中无线电访问网络中的大型MIMO处理。 ACM Sigcomm '19。Minsung Kim,Davide Venturell,Kyle Jamieson。利用量子退火进行集中无线电访问网络中的大型MIMO处理。ACM Sigcomm '19。
在当今的无线网络工作中,交通负载前所未有,设计挑战从无线网络本身转移到无线网络背后的计算支持。在这种情况下,由于它们有可能大大加速处理,因此可以改善网络吞吐量,因此对量子计算方法有了新的兴趣。然而,由于具有变形和噪声的物理现象,今天实际上实际存在的量子硬件比基于硅的硬件更容易受到计算错误。本文探讨了两种类型的计算之间的边界(用于无线系统中优化问题的典型 - 量词混合处理),以增强无线如何模拟利用这两种方法的好处。我们使用当今最先进的实验可用技术之一(反向量子退火)探索了使用真实硬件原型的混合系统的可行性。在5G新无线电路线图中设想的低延迟,大型MIMO系统的初步结果令人鼓舞,在处理时间方面的性能大约比先前发布的结果更高。
我们提出了量子信念传播 (QBP),一种基于量子退火 (QA) 的低密度奇偶校验 (LDPC) 错误控制码解码器设计,该解码器在 Wi-Fi、卫星通信、移动蜂窝系统和数据存储系统中得到了广泛应用。QBP 将 LDPC 解码简化为离散优化问题,然后将简化的设计嵌入到量子退火硬件中。QBP 的嵌入设计可以在具有 2,048 个量子比特的真实最先进的 QA 硬件上支持块长度高达 420 位的 LDPC 码。我们在真实的量子退火器硬件上评估性能,对各种参数设置进行敏感性分析。我们的设计在高斯噪声无线信道上在 SNR 9 dB 下实现了 20 µ s 内的 10 − 8 比特错误率和 50 µ s 内的 1,500 字节帧错误率 10 − 6。进一步的实验测量了在真实无线信道上的性能,需要 30 µ s 才能在 SNR 15-20 dB 下实现 1,500 字节 99.99% 的帧传输率。QBP 的性能优于基于 FPGA 的软信念传播 LDPC 解码器,在 SNR 低 2.5–3.5 dB 时达到 10 − 8 的误码率和 10 − 6 的帧错误率。就局限性而言,QBP 目前无法在当前的 QA 处理器上实现实用的协议大小(例如 Wi-Fi、WiMax)LDPC 码。我们在本工作中的进一步研究提出了未来成本、吞吐量和 QA 硬件趋势方面的考虑。
物联网 (IoT) 这一术语由 Kevin Ashton 在 [1] 中首次提出,是网络连接向物理设备(如执行器、传感器和移动设备)的扩展,这些设备能够相互交互和通信,并可进行远程控制或监控。物联网被誉为下一次工业革命的推动者,它将改变我们看待、交互和使用周围现有物理系统的方式。它已经对医疗保健、智能家居、制造业、商业、教育和日常生活的许多其他关键领域产生了重大影响。物联网市场正在经历惊人的增长,预计到 2025 年物联网行业将增长 10 倍 [2]。在可预见的未来,智慧城市将以各种形式出现,例如无人机 (UAV)、智能家居、电子健康设备以及日常生活中使用的情境感知增强现实 (AR) 和虚拟现实 (VR) 应用,底层通信网络必须不断发展以满足其需求。由于服务不断变化、网络流量空前增加以及由于各种物联网设备和服务的融合而导致的安全威胁形势日益复杂,通信网络还必须支持自主操作。所有这些挑战进一步增加了网络操作的复杂性。人工智能 (AI) 及其学科,即机器学习 (ML),是实现自主和智能运行网络的主要推动力。自从 Hinton 等人的开创性工作以来。[3] 2006 年,随着深度神经网络快速训练方法的出现,人们对神经网络和其他 ML 方法在通信网络中的兴趣重新燃起 [4]。ML 在无线网络中的应用引起了极大的兴趣,并发表了大量研究文章。然而,这并不是人工智能第一次引起研究界的极大关注。在 70 年代和 80 年代,人们对 ML 产生了极大的热情,
摘要 — 我们研究无线网络中从一个源到多个节点的多跳数据传播,其中网络中的某些节点充当转发节点并帮助源进行数据传播。在这个网络中,我们研究了两种情况;i) 传输节点不需要传输激励;ii) 它们需要激励并由其相应的接收节点以虚拟代币支付。我们研究了两个问题;P1) 第一种情况的网络功率最小化和 P2) 第二种情况的社会成本最小化,定义为网络节点为接收数据支付的总成本。在本文中,为了解决 P1 和 P2,我们提出了集中式和分散式方法,以确定网络中的哪些节点应该充当传输节点,找到它们的传输功率及其相应的接收节点。为了提高能源效率,在我们的模型中,我们在接收器处采用最大比率合并 (MRC),以便接收器可以由多个发射器提供服务。所提出的分散式方法基于非合作成本分摊博弈 (CSG)。在我们提出的博弈中,每个接收节点都会选择各自的传输节点,因此,根据施加在其所选传输节点上的功率为其分配成本。我们讨论了如何以分散式方式形成网络,找出了游戏中节点的动作,并表明尽管是分散式的,但所提出的博弈仍会收敛到稳定的解决方案。为了找到集中式全局最优解(这是我们分散式方法的基准),我们使用了混合整数线性规划 (MILP)。模拟结果表明,我们提出的分散式方法在能源效率和社会成本方面优于传统算法,同时它可以满足对协作激励的需求。
摘要 — 能源消耗是部署在海洋环境中的无线传感器节点的最大制约因素之一。它们通常用于难以提供电力的地区的远程环境监测。因此,这些设备需要由电池和替代能源供电。由于电池能量有限,使用不同的技术来节省能源是无线传感器网络 (WSN) 中最热门的话题之一。已经通过硬件和软件技术开发了各种电池优化方案。基于无线保真 (Wi-Fi) 的网络的普及使其成为建立基于 Wi-Fi 的传感器网络的热门选择,但这些系统相对较高的功率要求与长电池寿命和低维护的要求相冲突。这项工作考虑了是否有可能将 Wi-Fi 功耗降低到可以使用廉价的基于 Wi-Fi 的产品代替其他协议的程度。该设置由一个无线传感器组成,该传感器基于低成本的 esp8266 模块,任务是收集海洋保护区的温度数据。分析了设备固件中不同状态下节点的能耗,以及能耗与传感器数据传输速率和系统休眠期之间的关系。该研究还比较了两种网络实现的能耗:消息队列遥测传输 (MQTT) 与基于服务器-客户端的系统。测试结果表明,如果不实施休眠期,无论传输速率如何,两种传输方法的传感器节点的最大电池寿命均为 15.8 小时。如果实施休眠模式,传输速率会对系统电池寿命产生重大影响。研究发现,传输时间为一小时,电池寿命可增加 43 倍,传输时间为一分钟,电池寿命可增加 40 倍。事实证明,利用 MQTT 传输方案的优化 WSN 配置比服务器-客户端方案的电池寿命延长了 34%。通过这些分析,可以得出最佳固件的设计和网络架构的选择,从而可以在最长的时间内延长电池寿命。索引术语 — 无线传感器网络、功率优化、ESP8266、MQTT、Micropython。
2 尼日利亚河流州哈科特港河流州立大学计算机工程系 摘要 - 带宽分配和管理在满足应用程序的服务质量 (QoS) 要求方面发挥着至关重要的作用,并促进了以用户为中心的网络模型的转变。由于带宽是一种稀缺资源,传统的带宽分配方法逐渐被人工智能方法所取代,以提高带宽利用率。在本研究中,研究了鲸鱼优化算法 (WOA) 如何在无线网络中提供最佳带宽分配。WOA 是一种最近的群体智能方法,它模仿了座头鲸的觅食模式。在本研究中,带宽被分配给实时用户 (RTU) 和非实时用户,同时为未来用户保留带宽。模拟是在 MATLAB 中实现的,并从连接概率的角度讨论了结果,重点关注可用带宽和网络上的 RTU 数量。从结果来看,提出的 WOA 技术有效地优化了分配给用户的带宽,并展示了少量带宽的带宽管理。索引术语-鲸鱼优化算法、带宽分配、服务质量、无线网络、连接概率
当前的通信网络使用的设计方法阻碍了实现最大网络效率。首先,虽然用户对满意服务的感知差异很大,但当前的网络设计为“通用”,通常过度设计以提供吸引所有类型用户的服务。此外,当前的网络缺乏用户级数据认知智能,无法通过自动化实现快速个性化的网络决策和行动。因此,在本文中,我们建议利用人工智能、大数据分析和实时非侵入式用户反馈来实现无线网络的个性化。根据每个用户的实际 QoS 要求和环境,多目标公式使网络能够同时微观管理和优化所提供的 QoS 和用户满意度水平。此外,为了实现用户反馈跟踪和测量,我们提出了一个基于容忍区概念的用户满意度模型。此外,我们提出了一个大数据驱动和基于人工智能的个性化框架,将个性化融入无线网络。最后,我们通过案例研究实现了一个个性化网络原型,以展示所提出的个性化概念及其潜在优势。案例研究展示了如何实现个性化,从而实现网络资源的有效优化,从而实现一定要求水平的用户满意度和以节省资源的形式实现的收入。
摘要:本文提出了在未来大规模网络中使用灵活的、受大脑启发的模拟和数字无线传输的新视角。受人类大脑中高度节能的神经脉冲传输机制的启发,我们从节能的角度考虑了非常短距离的灵活无线模拟和数字传输。考虑到电路功耗模型,比较了可用传输模式的能效指标。为了比较所考虑的系统,我们假设传输的数据来自模拟传感器。在数字传输方案的情况下,解码后的数据在接收端转换回模拟形式。此外,分析了文献中的不同功耗模型和具有不同性能的数字传输方案,以检查对于某些应用和某些信道条件,模拟传输是否可以成为数字通信的节能替代方案。模拟结果表明,在某些情况下,模拟或简化数字通信比采用 QAM 调制的数字传输更节能。
5G无线通信网络目前正在部署,预计B5G网络将在未来十年内发展。人工智能技术,尤其是机器学习,有可能通过涉及B5G中需要处理的大量数据来有效解决非结构化和看似棘手的问题。本文研究如何利用人工智能和机器学习来设计和运营B5G网络。我们首先全面概述了将人工智能/机器学习技术引入B5G无线网络的最新进展和未来挑战。我们的调查涉及无线网络设计和优化的不同方面,包括信道测量、建模和估计、物理层研究以及网络管理和优化。然后回顾了机器学习算法和在B5G网络中的应用,随后概述了将人工智能/机器学习算法应用于B5G网络的标准发展。我们以将人工智能/机器学习应用于B5G网络的未来挑战作为本研究的结束。