摘要 - 肌形加密(HE)是用于构建隐私应用程序的常用工具。但是,在许多客户和高延迟网络的情况下,由于密码大小较大而引起的通信成本是bot-tleneck。在本文中,我们提出了一种新的压缩技术,该技术使用具有较小的密文的添加剂同构加密方案,以基于错误的学习(LWE)来压缩大型同构密文。我们的技术利用了此类密文的解密中的线性步骤,以将部分解密委托给服务器。我们达到的压缩比最高90%,这仅需要一个小的压缩密钥。通过同时压缩多个密文,我们的压缩率超过99%。我们的压缩技术可以很容易地应用于将LWE密文从服务器传输到客户端的应用程序,以作为对查询的响应。更重要的是,我们将技术应用于私人信息检索(PIR),其中客户端访问数据库而无需透露其查询。使用我们的压缩技术,我们提出了Zippir,这是一种PIR协议,它在文献中所有协议中达到了最低的总体通信成本。Zippir不需要在预处理阶段与客户进行任何通信,这是用于与短暂客户端或高延迟网络的PIR用例的绝佳解决方案。
过程张量矩阵积算子 (PT-MPO) 能够对空前广泛的开放量子系统进行精确的数值模拟。通过以 MPO 形式表示环境影响,可以使用已建立的算法对其进行有效压缩。压缩的 PT-MPO 内键的维度可以看作是环境复杂性的指标。在这里,我们表明,内键本身(而不仅仅是其维度)具有具体的物理意义:它们表示全环境刘维尔空间的子空间,该子空间承载着可能对后续开放量子系统动力学影响最大的环境激发。这种联系可以用有损线性变换来表示,其伪逆有助于提取环境可观测量。我们通过提取中心自旋问题的环境自旋、耦合到两个引线的量子系统的电流、从量子发射器发射到结构化环境中的光子数量以及驱动非马尔可夫量子系统中总吸收能量在系统、环境和相互作用能量项中的分布来证明这一点。数值测试进一步表明,不同的 PT-MPO 算法将环境压缩到相似的子空间。因此,PT-MPO 内部键的物理解释既提供了概念上的理解,也使新的实际应用成为可能。
我们从时间角度研究了加强学习(RL)政策的解释性,重点是与个人行动相关的未来结果的顺序。在RL中,值函数压缩有关跨多个传统和无限视野收集的奖励的信息,从而允许一种紧凑的知识表示形式。但是,这种压缩掩盖了顺序决策中固有的时间细节,这是对解释性的关键挑战。我们提出了时间政策构成(TPD),这是一种新颖的解释性方法,该方法从他们的预期未来结果(EFO)方面解释了单个RL行动。这些解释将代理的价值函数分解为EFO序列,每个时间都逐步发展到感兴趣的预测范围,从而揭示了何时发生特定结果的见解。我们利用固定性时间差异学习来设计一种用于学习最佳和次优的动作的EFO的非政策方法,从而实现了由EFO组成的对比解释。我们的实验表明,TPD产生了准确的解释,即(i)阐明该政策的未来战略和预期的轨迹,对给定的行动进行了预期的轨迹,以及(ii)提高对奖励组成的理解,促进对奖励功能的微调,以与人类的期望保持一致。
硬度:< 3 条痕:N/A 环境:矿山、采石场、田野、露头 寻找对象:沉积岩或采石场中发现的黑色、有光泽的轻质材料 大小:煤块可以以任何大小出现 颜色:深灰至黑色、棕黑色 说明:煤长期被用作可燃化石燃料,是一种轻质黑色材料,由从未完全腐烂的化石植物物质组成。当水生植物在缺氧的酸性水中死亡时,分解会停止,导致植物物质堆积。随着时间的推移,上覆的沉积物会压缩该物质,将植物的碳浓缩到床中。随着压力的增加,煤开始形成,首先是褐煤,一种柔软的木质煤,最终形成无烟煤,这是煤的最终形态,只有在高压下才能形成。无烟煤经历了足够多的变化,实际上被认为是一种岩石。由于美国中西部地区过去曾是水生生物,煤矿床十分常见,整个地区都有煤矿开采。煤质柔软轻便,光泽亮丽,易燃,因此很容易识别。如果该地区的煤受到进一步增加的压力,可能会产生更纯净的碳,包括石墨和钻石(不幸的是,对于收藏家来说,这种情况并没有发生)。
摘要 — 本文提出了一种使用 EEG 数据进行情绪识别的新型两阶段框架,该框架在保持模型尺寸小且计算效率高的同时,性能优于最先进的模型。该框架由两个阶段组成;第一阶段涉及构建名为 EEGNet 的高效模型,该模型受到最先进的高效架构的启发,并采用包含深度可分离卷积层的倒置残差块。EEGNet 模型在效价和唤醒标签上分别仅使用 6.4k、14k 和 25k 个参数即可实现 90%、96.6% 和 99.5% 的平均分类准确率。在准确率和存储成本方面,这些模型比之前最先进的结果高出多达 9%。在第二阶段,我们对这些模型进行二值化以进一步压缩它们并轻松将它们部署到边缘设备上。二值神经网络 (BNN) 通常会降低模型准确率。本文通过引入三种新方法改进了 EEGNet 二值化模型,并实现了比基线二值模型高出 20% 的改进。所提出的二值化 EEGNet 模型分别实现了 81%、95% 和 99% 的准确率,存储成本分别为 0.11Mbits、0.28Mbits 和 0.46Mbits。这些模型有助于在边缘环境中部署精确的人类情感识别系统。索引术语 — 情感识别;脑电图;3D-CNN;ResNet;量化;深度学习;二值 CNN
大规模3D生成模型需要大量的计算资源,但在高分辨率下捕获细节和复杂的几何形状方面常常缺乏。我们将这种限制归因于当前表示的效率低下,这缺乏有效建模生成模型所需的紧凑性。为了解决这个问题,我们介绍了一种名为Wa velet la Tent扩散或WALA的新方法,该方法将3D形状编码为基于小波的紧凑型潜在编码。具体而言,我们将256 3签名的距离场压缩到12 3×4潜在网格中,达到了令人印象深刻的2,427×压缩比,细节的损失最小。这种高水平的压缩使我们的方法可以有效地训练大规模生成网络而不增加推理时间。我们的模型,无论是有条件还是无条件的,都包含大约十亿个参数,并在256 3分辨率下可成功地生成高质量的3D形状。此外,尽管模型的规模,但Wala提供了快速推断,根据条件,在两到四秒钟内产生形状。我们证明了多个数据集的最新能力,并有显着提高的发电质量,多样性和计算效率。我们为我们的代码开放代码,据我们所知,我们跨不同方式发布了最大的预估计的3D生成模型:https://github.com/autodeskailab/wala。
摘要 - 连接的车辆(CVS)在连续的大数据传输方面面临重大挑战,导致较高的传输带宽成本和影响实时决策。为了解决这个问题,我们提出了基于强化学习和时间压缩感知的两种动态驾驶感知机制,以智能压缩视频数据。这些机制适应驾驶条件,减少带宽,同时保留足够的信息以进行准确的应用,例如对象检测并确保在需要时确保高质量的重建。我们还实施了一个集成这些机制的车辆边缘库云(VEC)闭环框架。具体来说,轻巧的车辆模型对压缩数据(测量)进行实时检测,而Edgeserver则在需要时接收测量并重建场景。然后将测量结果,重建视频和分析结果发送到云中以进行车辆模型更新。与传统方法不同,我们的框架无缝地适应了跨车辆,边缘服务器和云,从而支持有效的数据传输和动态模型更新。在我们设计的路边单元平台和机器人车辆上进行了广泛的评估,这些车辆配备了行业级传感器和计算单元。结果表明,与非自适应测量值相比,在320kb/s的带宽下降低了18倍,同时保持高检测精度和重建质量,突出了该框架对CVS的有希望的现实世界应用。
在患有 HF 的患者中,肾上腺素能环路的激活会导致这些受体的过度刺激,重新分配在正常情况下不会对全身循环造成压力的体积,从而产生充血。因此,当建议使用硝酸盐等血管扩张剂时,目的是重新建立最接近静脉床原始容量的容量,并有利于全身充血的流出。如图 2 所示,在血管中心循环压缩模型中,通过降低中心静脉压力,可以优化静脉回流,从而使血液更好地从外周流向心脏。在该方案中,平均系统充盈压控制静脉系统,因此流量优化(Q)的决定因素是应激体积以及右心房压力。因此,恢复电容相当于降低系统屈服点,从而提高效率。 8
在图1中显示的蒸气压缩周期中有4个主要成分;机械加压器,冷凝器,膨胀阀和蒸发器。由于它是一个周期,因此没有开始或终点要考虑,因此此描述将从蒸发器和兼容性之间的制冷剂开始。在这一点上,制冷剂是一种气体,已经蒸发了。然后通过压缩机将其挤压到一个小得多的空间,从而使其变得非常热。这是使用电能的地方;压缩蒸气需要一些能量。现在,这种热气已进入冷凝器。在热泵中,冷凝器是一种热交换器,它将是一种卷曲的线圈,制冷剂慢慢奔跑,通过空气或水冷却。此空气或水是您取出热量的地方;热量自然会从非常热的制冷剂流入冷却器或水中,这变成了家中的热水或温暖的空气。返回制冷剂,现在已经大量冷却,并将其冷凝回到液体中。穿过膨胀阀,它会进一步冷却,其中一些蒸发是由低压引起的。这种冷液体和气体混合物通过蒸发器泵送。蒸发器是另一种热交换器,这次是外面的,这使冷热剂可以被外部空气加热并蒸发,将制冷剂返回到我们开始本循环时,在经过压缩机之前,将其恢复到该州的状态。
卷积神经网络 (CNN) 在各种应用中的成功伴随着计算和参数存储成本的显著增加。最近为减少这些开销所做的努力包括修剪和压缩各个层的权重,同时力求不牺牲性能。在本文中,我们提出了一种受神经网络可解释性启发的 CNN 修剪新标准:使用从可解释人工智能 (XAI) 概念中获得的相关性分数,自动找到最相关的单元,即权重或过滤器。通过探索这个想法,我们将可解释性和模型压缩研究联系起来。我们表明,我们提出的方法可以在迁移学习设置中有效地修剪 CNN 模型,在这种设置中,在大型语料库上预训练的网络可以适应专门的任务。该方法在广泛的计算机视觉数据集上进行了评估。值得注意的是,我们的新标准不仅在进行连续再训练时与最先进的修剪标准相比具有竞争力或更好,而且在资源受限的应用场景中,其表现明显优于这些先前的标准,在这种场景中,要迁移到的任务的数据非常稀缺,并且人们选择不进行微调。我们的方法能够迭代压缩模型,同时保持甚至提高准确性。同时,它的计算成本与梯度计算的数量级相当,并且应用起来相对简单,无需调整修剪的超参数。