摘要:联合学习(FL)是一个分布式范式,它使多个客户能够在不共享其敏感本地数据的情况下协作训练模型。在这种隐私敏感的环境中,同态加密(HE)通过对加密数据启用计算来起重要作用。这阻止了服务器在聚合过程中进行逆向工程模型更新,以推断私人客户数据,这是在医疗保健行业(患者conditions contions contementies contementies contementions pmagemation is Pamentaint''的情况下的重要关注。尽管有这些进步,但FL仍容易受到培训阶段恶意参与者的知识产权盗窃和模型泄漏的影响。为了抵消这一点,水标作为保护深神经网络(DNNS)的知识产权的解决方案。但是,传统的水印方法与HE不兼容,这主要是因为它们需要使用非溶液功能,而HE并非本地支持。在本文中,我们通过提出单个同型加密模型上的第一个白色框DNN水印调制来解决这些挑战。然后,我们将此调制扩展到符合他处理约束的服务器端FL上下文。我们的实验结果表明,所提出的水印调制的性能等效于未加密域上的水印。
部分遮挡图像识别 (POIR) 问题长期以来一直是人工智能面临的挑战。处理 POIR 问题的常用策略是使用非遮挡特征进行分类。不幸的是,当图像被严重遮挡时,此策略将失去效果,因为可见部分只能提供有限的信息。神经科学领域的一些研究表明,特征恢复(填充遮挡信息并称为非模态补全)对于人脑识别部分遮挡图像至关重要。然而,特征恢复通常会被 CNN 忽略,这可能是 CNN 对 POIR 问题无效的原因。受此启发,我们提出了一种新颖的受大脑启发的特征恢复网络 (BIFRNet) 来解决 POIR 问题。它模拟腹侧视觉通路来提取图像特征,并模拟背侧视觉通路来区分遮挡和可见图像区域。此外,它还使用知识模块存储对象先验知识,并使用完成模块根据可见特征和先验知识恢复遮挡特征。在合成和真实世界遮挡图像数据集上进行的深入实验表明,BIFRNet 在解决 POIR 问题方面优于现有方法。特别是对于严重遮挡的图像,BIRFRNet 大大超越其他方法,接近人脑性能。此外,受大脑启发的设计使 BIFRNet 更具可解释性。
摘要 — 深度神经网络 (DNN) 加速器可靠性的严格要求与减少硬件平台计算负担的需求相伴而生,即降低能耗和执行时间以及提高 DNN 加速器的效率。此外,对具有定制要求的专用 DNN 加速器的需求不断增长,特别是对于安全关键型应用,这需要进行全面的设计空间探索,以开发出满足这些要求的高效且强大的加速器。因此,硬件性能(即面积和延迟)与 DNN 加速器实现的可靠性之间的权衡变得至关重要,需要分析工具。本文提出了一种全面的方法来探索和实现对量化对模型精度、激活故障可靠性和硬件效率的三方影响的整体评估。介绍了一个完全自动化的框架,该框架能够应用各种量化感知技术、故障注入和硬件实现,从而实现硬件参数的测量。此外,本文提出了一种集成在框架内的新型轻量级保护技术,以确保最终基于脉动阵列的 FPGA 实现的可靠部署。在已建立的基准上进行的实验展示了分析流程以及量化对可靠性、硬件性能和网络准确性的深远影响,特别是关于网络激活中的瞬态故障。索引术语 — 深度神经网络、设计空间探索、量化、故障模拟、可靠性评估
现场可编程门阵列(FPGA)被广泛用于本地加速深度神经网络(DNN)算法,具有高计算吞吐量和能效。虚拟化FPGA和在云端部署FPGA正成为越来越有吸引力的DNN加速方法,因为它们可以增强计算能力,实现跨多用户的按需加速。在过去的五年中,研究人员广泛研究了基于FPGA的DNN加速器的各个方向,例如算法优化、架构探索、容量改进、资源共享和云构建。然而,以前的DNN加速器调查主要集中于在本地FPGA上优化DNN性能,而忽略了将DNN加速器放置在云端FPGA中的趋势。在本研究中,我们深入研究了基于FPGA的DNN加速器中使用的技术,包括但不限于架构设计、优化策略、虚拟化技术和云服务。此外,我们还研究了 DNN 加速器的演进,例如从单个 DNN 到框架生成的 DNN、从物理到虚拟化 FPGA、从本地到云、从单用户到多租户。我们还确定了云端 DNN 加速的重大障碍。本文增强了对基于 FPGA 的 DNN 加速器演进的当前理解。
摘要 — 在本文中,我们提出了一种基于深度神经网络辅助粒子滤波器 (DePF) 的方法来解决超密集网络中的移动用户 (MU) 联合同步和定位 (sync&loc) 问题。具体而言,DePF 在 MU 和接入点 (AP) 之间部署了一种非对称时间戳交换机制,传统上,该机制为我们提供有关 MU 时钟偏移和偏差的信息。然而,AP 和 MU 之间的距离信息也是交换时间戳所经历的传播延迟所固有的。此外,为了估计接收到的同步数据包的到达角,DePF 利用多信号分类算法,该算法以同步数据包所经历的信道脉冲响应 (CIR) 为输入。CIR 还用于确定链路条件,即视距 (LoS) 或非视距。最后,为了执行联合同步和定位,DePF 利用粒子高斯混合,允许对上述信息进行基于粒子和参数贝叶斯递归滤波 (BRF) 的混合融合,从而联合估计 MU 的位置和时钟参数。模拟结果验证了所提出的算法优于最先进的方案,尤其是基于扩展卡尔曼滤波器和线性化 BRF 的联合同步和定位。特别是,仅利用来自单个 AP 的同步时间戳交换和 CIR,在 90% 的情况下,绝对位置和时钟偏移估计误差分别保持在 1 米和 2 纳秒以下。
侵入性真菌感染每年在全球造成超过160万患者,由于抗真菌药物数量有限(偶氮,echinocandins和polyeners)以及抗真菌耐药性的出现,因此难以治疗。转录因子CRZ1是细胞应激反应和毒力的关键调节剂,是一个有吸引力的治疗靶标,因为该蛋白在人类细胞中不存在。在这里,我们使用了CRISPR-CAS9方法在两个抗Caspofungin的c临床分离株中产生同基因CRZ1Δ菌株。glabrata分析了该转录因子在非脊椎动物(Galleria mellonella)和脊椎动物(小鼠)念珠菌病模型中对eChinocandins,胁迫耐受性,生物膜的形成和致病性的敏感性的作用。在这些临床分离株中,CRZ1破坏恢复了体外和体内模型中echinocandins的敏感性,并影响其氧气应激反应,生物膜形成,细胞大小和致病性。这些结果强烈表明,考虑到抗真菌抗性的出现和可用的抗真菌药物数量少,CRZ1抑制剂可能在针对真菌感染的新型雌激素中起重要作用。
摘要 — 目标:用脑电图 (EEG) 测量的稳态视觉诱发电位 (SSVEP) 在脑机接口 (BCI) 拼写器中产生不错的信息传输速率 (ITR)。然而,目前文献中高性能的 SSVEP BCI 拼写器需要对每个新用户进行初始冗长而累人的用户特定训练以适应系统,包括使用 EEG 实验收集数据、算法训练和校准(所有这些都在实际使用系统之前)。这阻碍了 BCI 的广泛使用。为了确保实用性,我们提出了一种基于深度神经网络 (DNN) 集合的全新目标识别方法,该方法不需要任何类型的用户特定训练。方法:我们利用先前进行的 EEG 实验的参与者的现有文献数据集,首先训练一个全局目标识别器 DNN,然后针对每个参与者进行微调。我们将这组经过微调的 DNN 集合转移到新的用户实例,根据参与者与新用户的统计相似性确定 k 个最具代表性的 DNN,并通过集合预测的加权组合来预测目标字符。结果:在两个大规模基准和 BETA 数据集上,我们的方法实现了令人印象深刻的 155.51 比特/分钟和 114.64 比特/分钟 ITR。代码可用于重现性:https://github.com/osmanberke/Ensemble-of-DNNs 结论:在两个数据集上,对于所有刺激持续时间在 [0.2-1.0] 秒内的情况,所提出的方法都明显优于所有最先进的替代方案。意义:我们的 Ensemble-DNN 方法有可能促进 BCI 拼写器在日常生活中的实际广泛部署,因为我们提供最高性能,同时允许立即使用系统而无需任何用户特定的训练。索引词 — 脑机接口、BCI、EEG、SSVEP、集成、深度学习、迁移学习
尽管深度神经网络 (DNN) 越来越多地应用于选择分析并显示出很高的预测能力,但研究人员能在多大程度上解读来自 DNN 的经济信息尚不清楚。本文表明,DNN 可以提供与传统离散选择模型 (DCM) 一样完整的经济信息。经济信息包括选择预测、选择概率、市场份额、替代品的替代模式、社会福利、概率导数、弹性、边际替代率和异质时间值。与 DCM 不同,DNN 可以自动学习效用函数并揭示领域专家未预先指定的行为模式,尤其是在样本量较大的情况下。然而,当样本量较小时,从 DNN 获得的经济信息可能不可靠,因为自动学习能力面临三大挑战:对超参数的高度敏感性、模型不可识别和局部不规则性。第一个挑战与平衡 DNN 近似值和估计误差的统计挑战有关,第二个挑战与确定 DNN 训练中的全局最优值的优化挑战有关,第三个挑战与缓解估计函数的局部不规则模式的稳健性挑战有关。为了展示优势和挑战,我们使用来自新加坡的陈述偏好调查和来自伦敦的显示偏好数据来估计 DNN,从 DNN 中提取完整的经济信息列表,并将其与来自 DCM 的信息进行比较。我们发现,通过训练或人口汇总的经济信息比单个观察或训练的分解信息更可靠,并且更大的样本量、超参数搜索、模型集成和有效的正则化可以显著提高从 DNN 中提取的经济信息的可靠性。未来的研究应研究样本量的要求、更好的集成机制、其他正则化和 DNN 架构、更好的优化算法以及稳健的 DNN 训练方法,以解决 DNN 的三大挑战,为基于 DNN 的选择模型提供更可靠的经济信息。关键词:深度神经网络;机器学习;选择分析;可解释性。
摘要 — 深度神经网络 (DNN) 已被证明在图像识别、物体检测、机器人技术和自然语言处理等广泛应用中均优于传统机器学习算法。然而,DNN 的高计算复杂度通常需要极其快速和高效的硬件。随着神经网络规模呈指数级增长,问题变得更加严重。因此,已经开发了定制的硬件加速器来加速 DNN 处理而不牺牲模型准确性。然而,以前的加速器设计研究没有充分考虑目标应用程序的特点,这可能导致架构设计次优。另一方面,已经开发了新的 DNN 模型以提高准确性,但它们与底层硬件加速器的兼容性往往被忽视。在本文中,我们提出了一个应用驱动的框架,用于探索 DNN 加速器的架构设计空间。该框架基于单个 DNN 操作的硬件分析模型。它将加速器设计任务建模为一个多维优化问题。我们证明它可以有效地用于应用驱动的加速器架构设计:我们使用该框架优化八个代表性 DNN 的加速器配置,并选择具有最高几何平均性能的配置。相对于仅针对每个 DNN 优化的架构配置,所选 DNN 配置的几何平均性能改进范围为 12.0% 至 117.9%。给定一个目标 DNN,该框架可以生成具有优化性能和面积的高效加速器设计解决方案。此外,我们探索了在同时使用多种 DNN 应用的情况下使用该框架进行加速器配置优化的机会。该框架还能够改进神经网络模型,以最适合底层硬件资源。我们证明它可用于分析目标 DNN 的操作与相应加速器配置之间的关系,在此基础上可以调整 DNN 以在给定加速器上获得更好的处理效率,而不会牺牲准确性。
大脑中风是普遍死亡的第二大大量原因,在过去几年中一直是公共卫生的主要关注。借助机器学习技术,可以访问各种冲程警报的早期检测,这可以有效防止或减少中风。医学数据集在其类标签上经常不平衡,倾向于预测少数群体的趋势。在本文中,研究了中风的潜在危险因素。此外,还采用了四种独特的方法来改善中风数据集中少数群体的分类,这是合成重量投票分类器,合成的少数群体过度采样技术(SMOTE),主要组成部分分析,具有K-Means聚类(PCA-KMEANS)的主要成分分析(PCA-KMEANS),局灶性损失,与深度神经网络(COMPAL SERVANCY)(COMPAR)(DNN)(DNN)(DNN)(DNN)(DNN)(DNN)(DNN)。通过分析结果,具有DNN-局灶性损失的Smote和PCA-KMEANS最适合有限的大型严重不平衡数据集(例如,中风数据集),这是2-4倍以优于Kaggle的工作。关键字:不平衡数据集,中风预测,集合权重投票分类器,Smote,dnn的焦点损失,PCA-KMEANS