自我监管的多模式对比度学习(SMCL)明显地通过使视觉和语言方式结盟现代视觉预训练(VLP)模型。由于网络收获的文本图像对中的噪音,因此在计算成本和数据效率低下方面,SMCL的培训数据量扩大了相当大的obs。为了提高VLP的数据效率,我们提出了文本感知图像混合(TIMIX),该图像混合(TIMIX)将基于混合的数据增强技术集成到SMCL中,从而在没有显着增加计算开销的情况下进行了显着的性能改进。我们从共同信息(MI)的角度提供了TIMIX的理论分析,表明跨模式对比度学习的混合数据样本隐含地充当对比损失的常规器。实验结果表明,即使在针对现有方法的基准测试时,Timix在下游任务上也表现出可比的性能,即使减少了训练数据和较短的训练时间。这项工作在经验上和理论上证明了数据混合对于数据有效和计算可行的VLP的潜力,从而使更广泛的VLP模型在实际情况下受益。我们的代码可在https://github.com/chaoyajiang/timix/tree/main上使用。
摘要 - 该论文引入了针对资源约束物联网(IoT)环境量身定制的轻巧,有效的键合功能,利用了Parabola Chaotic Map的混乱属性。通过将混沌系统的固有不可预测性与简化的加密设计相结合,提出的哈希功能可确保可靠的安全性和低计算开销。通过基于SRAM初始值将其与物理不封次函数(PUF)集成来进一步增强该函数,该功能可作为设备特异性键的安全且耐篡改的来源。对ESP32微控制器的实验验证证明了该函数对输入变化,特殊统计随机性以及对加密攻击的抗性的高度敏感性,包括碰撞和差分分析。在不同条件下,在关键产生中,平均比重变化的概率接近理想的50%和100%的可靠性,该系统解决了关键的物联网安全挑战,例如克隆,重播攻击和篡改。这项工作贡献了一种新颖的解决方案,该解决方案结合了混乱理论和基于硬件的安全性,以推动物联网应用程序的安全,高效和可扩展的身份验证机制。
摘要:空投试验中飞机与降落伞的跟踪至关重要,需要研究降落伞的打开状态和飞行轨迹,如何高效准确地获取降落伞的形变数据和轨迹数据成为越来越多学者的研究方向。目前实际的数据采集主要由实验人员手持高清高速摄像机对降落伞进行跟踪拍摄,获得空投过程中降落伞的图像序列,但这些方法无法获得降落伞的运动轨迹,且易受人为因素的干扰。本文设计了TuSeSy智能转台伺服系统,可自动跟踪空投试验中的飞机与降落伞,具体而言,TuSeSy根据实际拍摄图像与跟踪算法推断图像的差异生成控制指令(从而真正跟踪目标)。此外,我们提出了一种基于图像帧差和光流的有效多目标跟踪切换算法,实现了空投试验中从飞机到降落伞的实时切换。为了评估TuSeSy的性能,我们进行了大量的实验;实验结果表明,TuSeSy不仅解决了错误目标跟踪的问题,而且还降低了计算开销。此外,与其他跟踪切换方法相比,多目标跟踪切换算法具有更高的计算效率和可靠性,确保了转台伺服系统的实际应用。
摘要:跟踪飞机与降落伞在空投试验中起着至关重要的作用。研究降落伞的打开状态和飞行轨迹是十分必要的。如何高效准确地获取降落伞的形变数据和轨迹数据,越来越多的学者开始研究。目前,实际的数据采集主要由实验人员手持高清高速摄像机对降落伞进行跟踪拍摄,获得降落伞在空投过程中的图像序列。但这些方法无法获得降落伞的飞行轨迹,且易受人为因素的干扰。本文设计了一种智能转台伺服系统TuSeSy,可自动跟踪空投试验中的飞机与降落伞。具体来说,TuSeSy根据实际拍摄图像与跟踪算法推断图像之间的差异生成控制命令(从而真正跟踪目标)。此外,我们提出了一种有效的基于图像帧差异和光流的多目标跟踪切换算法,实现了空投试验中从飞机到降落伞的实时切换。为了评估TuSeSy的性能,我们进行了大量实验;实验结果表明,TuSeSy不仅解决了错误目标跟踪的问题,而且还降低了计算开销。此外,与其他跟踪切换方法相比,多目标跟踪切换算法具有更高的计算效率和可靠性,确保了转台伺服系统的实际应用。
摘要 - 作为分辨率增强技术的关键技术之一(RET),光学接近校正(OPC)的计算成本过高,作为特征尺寸缩小的缩小。逆光刻技术(ILTS)将掩模优化过程视为反向成像问题,产生高质量的曲线掩模。但是,由于其时间消耗程序和过多的计算开销,ILT方法通常无法打印性能和制造性。在本文中,我们提出了DEVELSET,这是一种有效的金属层OPC引擎,该发动机替换了基于隐式级别设置表示的离散基于像素的掩码。使用GPU加速的岩性模拟器,Develset使用神经网络实现端到端掩模优化,以提供准优化的水平设置初始化,并使用基于CUDA的掩模优化器进行快速收敛。Develset-NET的骨干是一个基于变压器的多重型神经网络,它提供了一个参数选择器,以消除对手动参数初始化的需求。实验结果表明,DEVELSET框架在可打印性方面优于最先进的方法,同时实现快速运行时性能(约1 s)。我们期望这种增强的水平设定技术,再加上CUDA/DNN加速的关节优化范式,对工业面罩优化解决方案产生了重大影响。
摘要。机器学习 (ML) 在解决计算机视觉、语音识别、对象检测等各种问题方面取得了巨大成功。这一成功的主要原因是可用于训练深度神经网络 (DNN) 的大量数据集。但是,如果数据集包含敏感信息(例如医疗或财务记录),则无法公开发布。在这种情况下,数据隐私成为一个主要问题。加密方法为这个问题提供了一种可能的解决方案,但它们在 ML 应用程序上的部署并不简单,因为它们会严重影响分类准确性并导致大量计算开销。或者,可以使用混淆技术,但在视觉隐私和准确性之间保持良好的平衡具有挑战性。在这项工作中,我们提出了一种从原始私有数据集生成安全合成数据集的方法。在我们的方法中,给定一个在原始数据集上预先训练的具有批量归一化 (BN) 层的网络,我们首先记录逐层 BN 统计数据。接下来,使用 BN 统计数据和预训练模型,我们通过优化随机噪声来生成合成数据集,以使合成数据与原始模型的分层统计分布相匹配。我们在图像分类数据集 (CIFAR10) 上评估了我们的方法,并表明我们的合成数据可用于从头开始训练网络,从而产生合理的分类性能。1
摘要。准确预测药物 - 目标相互作用对于加速药物发现和阐明复杂的生物学机械性至关重要。在这项工作中,我们将药物 - 目标预测构建为异质生物医学知识图(kg)的链接预测,该任务涉及药物,蛋白质,疾病,途径和其他相关实体。传统的kg嵌入方法,例如transe和复杂性,它们依赖于计算密集的阴性采样及其对看不见的药物 - 靶标对的有限概括。为了应对这些挑战,我们提出了多种文化感知采样(MUCOS),这是一个新的框架,优先考虑高密度邻居以捕获显着的结构模式,并将这些模式与contextual嵌入到Bert中。通过统一结构和文本模式并选择性地采样高度启发的模式,可以规定对负抽样的需求,从而显着降低了计算开销,同时提高了新型药物 - 靶标关联和药物目标的预测准确性。在KEGG50K数据集上进行的广泛实验表明,在预测数据集中的任何关系方面,粘液的表现都胜过最先进的基线,在预测数据集中的任何关系方面,粘液的平均互惠等级(MRR)提高了13%,并且在养活的药物量指定性预测中提高了6%。
摘要 SAT 问题是计算复杂性理论中具有根本重要性的典型 NP 完全问题,在科学和工程领域有许多应用;因此,它长期以来一直是经典算法和量子算法的重要基准。这项研究通过数值证据证明了 Grover 量子近似优化算法 (G-QAOA) 比随机抽样在寻找 3-SAT (All-SAT) 和 Max-SAT 问题的所有解方面具有二次加速。与 Grover 算法相比,G-QAOA 占用的资源更少,更适合解决这些问题,并且在对所有解进行抽样的能力方面超越了传统的 QAOA。我们通过对数千个随机 3-SAT 实例进行多轮 G-QAOA 的经典模拟来展示这些优势。我们还观察到 IonQ Aria 量子计算机上 G-QAOA 在小型实例方面的优势,发现当前硬件足以确定和采样所有解决方案。有趣的是,在每一轮 G-QAOA 中使用相同角度对的单角度对约束大大降低了优化 G-QAOA 角度的传统计算开销,同时保持了其二次加速。我们还发现了角度的参数聚类。单角度对协议和参数聚类显著减少了对 G-QAOA 角度进行传统优化的障碍。
正常,深度,反照率和阴影的三个三链接[3]。我们的方法是一种低级适应性(LORA)技术,有效地在不同的模型类型上有效地提取这些内在的,具有最小的计算开销和数据要求。详细的结果和一个夏天在选项卡中介绍。1,并在第二节进一步阐述。4。我们的实验表明,生成模型中的内在知识不是偶然的,而是大规模学习的副产品以模仿图像数据。总而言之,我们的工作扩大了对一般图像模型中对视觉知识的理解,我们的贡献是:•广泛的适用性:我们验证了I-L O Ra提取场景内在的(正常,深度,反击和阴影)的能力,跨越了广泛的生成模型,突显了其对各种建筑的适应性。•有效而精益的知识提取方法:I-L O RA高效,需要增加参数(稳定扩散的0.17%)和最小的训练数据,只有250张图像。•从学习的先验中的见解:通过控制实验,我们说明了学先的先验的关键作用,这表明提取的内在质量与生成模型的视觉质量相关。•内在的竞争质量:我们的方法具有数百至数千个标记的图像,与领先的监督技术相比,与数百万个标记图像相比,具有固有的图像或什至更好。
大型语言模型 (LLM) 在处理推理任务方面表现出令人印象深刻的能力。然而,与能够本能地根据任务的复杂性调整问题解决策略的人类不同,大多数基于 LLM 的方法采用一刀切的方法。这些方法采用一致的模型、样本大小、提示方法和问题分解级别,而不管问题的复杂性如何。这些方法的不灵活性会带来不必要的计算开销或次优性能。为了解决这一限制,我们引入了一个自适应求解器 (AS) 框架,该框架可以动态调整解决策略以适应各种问题,从而实现测试时间计算资源的灵活分配。该框架有两个主要模块。初始评估模块使用答案一致性评估当前解决方案的可靠性。如果解决方案被认为不可靠,则后续的适应模块开始发挥作用。在这个模块中,各种类型的适应策略被协同使用。通过这种动态和多方面的适应,我们的框架可以帮助减少计算消耗并提高性能。复杂推理基准的实验结果表明,我们的方法可以在保持原有性能的同时显著降低 API 成本(最高可达 85%)。此外,在相同成本下,与基线相比,其准确率最高可提高 4.5%。代码和数据集可在 https://github.com/john1226966735/Adaptive-Solver 上找到。