歧义缩略词的盛行使得科学文献对于人类和机器来说都更难理解,因此需要能够自动识别文本中的缩略词并消除其含义歧义的模型。我们引入了用于首字母缩略词识别和消歧的新方法:我们的首字母缩略词识别模型将学习到的标记嵌入投射到标签预测上,我们的首字母缩略词消歧模型找到具有类似句子嵌入的训练示例作为测试示例。与之前提出的方法相比,我们的两个系统都实现了显着的性能提升,并且在 SDU@AAAI-21 共享任务排行榜上表现出色。我们的模型部分在针对这些任务的新远程监督数据集上进行了训练,我们将其称为 AuxAI 和 AuxAD。我们还发现了 SciAD 数据集中的重复冲突问题,并形成了 SciAD 的去重版本,我们称之为 SciAD-dedupe。我们公开发布了这三个数据集,并希望它们能够帮助社区在科学文献理解方面取得进一步进展。
最近推出的其他 AI 工具包括 Quora 的 Poe AI、Anthropic 的 Claude AI 以及 Elon Musk 的 xAI。亚马逊 AI 旨在帮助卖家撰写产品描述,而 GPT-5 正在接受测试。最近,微软扩大了与 Open AI 的长期合作伙伴关系,并宣布投资数十亿美元将 LLM 集成到其核心产品中,并加速全球 AI 突破 (Marr, 2023)。根据 Bender 等人 (2021) 的说法,随着从互联网上收集的文本量不断增加,只要 LLM 规模不断扩大与性能提升相关,这种趋势预计会持续下去 (Bender 等人,2021)。然而,根据 Ouyang 等人 (2020) 的说法,LLM 可能会产生不真实甚至有害的输出,这表明让语言模型变得更大并不一定能让它们更好地遵循用户的意图 (Wiggers, 2020)。这些发展引起了全世界的关注,并引发了有关这种强大的人工智能模型的伦理影响和潜在用途的讨论。
摘要 — 脑机接口 (BCI) 促进了大脑和外部设备之间的直接交互。为了在侵入式 BCI 中同时实现高解码精度和低能耗,我们提出了一种结合局部突触稳定 (LSS) 和通道注意 (CA) 的新型脉冲神经网络 (SNN) 框架,称为 LSS-CA-SNN。LSS 优化了神经元膜电位动力学,提高了分类性能,而 CA 细化了神经元激活,有效降低了能耗。此外,我们引入了 SpikeDrop,这是一种数据增强策略,旨在扩展训练数据集,从而增强模型的通用性。在两只恒河猴记录的侵入式脉冲数据集上进行的实验表明,LSS-CA-SNN 在解码精度和能源效率方面均超越了最先进的人工神经网络 (ANN),性能提升了 0.80-3.87%,节能了 14.78-43.86 倍。这项研究强调了 LSS-CA-SNN 和 SpikeDrop 在推进侵入式 BCI 应用方面的潜力。
2023 年夏季研究实习生,三星美国研究中心,山景城 导师:Li Zhu 博士和 Jilong Kuang 博士 - 领导了一个关于减轻基于 rPPG 的 SpO2 估计的跨用户性能变化的项目。 - 获得三星 A1 专利。 - 提出的方法正在部署到三星产品(手机和电视)。 - 发表了 ICASSP'24 论文。 2022 年夏季研究实习生,Snap Research,纽约 导师:Jian Wang 博士和 Shree Nayar 博士 - 领导了一个关于减少 AR/VR 的运动到光子延迟的项目。 - 提出的技术是 Snapchat App 的路线图。 - 发表了 N-euro Predictor 论文(UbiComp'23)。 2021 年夏季研究实习生,Signify(飞利浦研究中心),远程导师:Jin Yu 博士 - 领导一个传感器数据处理项目。 - 构建了一个可扩展且强大的概率模型并实施了整个流程。 - 系统性能提升19%,并申请专利。
摘要本文利用人工智能加速器实现密码算法。据我们所知,这是首次尝试使用人工智能加速器实现量子安全的基于格的密码术 (LBC)。然而,人工智能加速器是为机器学习工作负载(例如卷积运算)而设计的,无法将其强大的功能直接用于密码计算。注意到环上的多项式乘法是 LBC 中的一种耗时计算,我们利用一种简单的方法使人工智能加速器非常适合环上的多项式乘法。还进行了其他非平凡优化以最小化转换开销,例如使用低延迟共享内存、合并内存访问。此外,基于 NVIDIA 人工智能加速器 Tensor Core,我们实现了一个名为 TESLAC 的原型系统,并进行了一组全面的实验来评估其性能。实验结果表明,TESLAC 可以达到每秒数千万次运算,相比 AVX2 加速的参考实现实现了两个数量级的性能提升。特别地,通过一些技巧,TESLAC 还可以扩展到其他模 q 更大的 LBC。
I. 引言 随着微电子技术和计算能力的不断进步,新一代无线技术的涌现使几代人之前看似未来主义的用例成为可能 [1]。然而,在这些新技术成为商业现实之前,需要彻底评估和评估它们的性能,并且必须充分了解与其性能扩展规律和操作限制相关的见解。深入研究通信理论基础,不可否认的是,渐近分析几十年来一直是评估系统性能的非常有用的工具 [2]。里程碑式的工作 [3] 为无线通信系统的渐近性能分析奠定了基础。在与信噪比 (SNR) 的概率密度函数 (PDF) 的平滑度相关的合理温和条件下,当平均 SNR γ 足够大时,错误概率度量可以表示为 P op ≈ α ( γ th /γ ) b ,其中 γ th 是给定性能所需的阈值 SNR 值。编码增益或功率偏移(由 α 捕获)和分集阶(DO,由 b 捕获)的概念在无线文献中无处不在,作为表征性能缩放定律的一种方式:通过将平均 SNR 增加一定量,我们可以获得多少性能提升?直到今天,Wang 和 Giannakis 的幂律
1 简介 1 1.1 背景:微型飞行器 ....................1 1.2 需要更高效的悬停微型飞行器 ............3 1.3 带罩旋翼配置:性能提升潜力 10 1.4 管道螺旋桨和带罩旋翼的先前研究 ......26 1.4.1 历史概述 .......................26 1.4.2 实验工作:罩壳设计变化的影响 ...32 1.4.2.1 早期工作 ...................42 1.4.2.2 直升机尾桨 ................58 1.4.2.3 无人机 .................68 1.4.3 实验工作:单个带罩转子模型的测试 ..86 1.4.4 性能预测的分析方法 .........87 1.4.4.1 叶片元和势流方法 ......88 1.4.4.2 计算流体动力学方法 .......93 1.4.5 其他带罩旋翼研究 ................96 1.4.5.1 噪声考虑 ...................96 1.4.5.2 翼尖间隙流动物理 ...................100 1.4.5.3 笼罩旋翼无人机稳定性和控制 .......101 1.4.5.4 环形翼的行为 ...............103 1.5 低雷诺数转子空气动力学 .................103 1.6 当前研究的目标和方法 ............。104
摘要 大数据时代,随着城市中部署的各种传感器收集到的海量数据以及人工智能技术的进步,城市计算对改善人们生活、城市运行系统和环境变得越来越重要。本章介绍人工智能技术在城市计算中的挑战、方法和应用。我们首先介绍背景,然后从计算机科学的角度列出应用人工智能技术的关键挑战。然后我们简要介绍城市计算中广泛使用的人工智能技术,包括监督学习、半监督学习、无监督学习、矩阵分解、图模型、深度学习和强化学习。随着深度学习技术的最新进展,CNN和RNN等模型在许多应用中显示出显着的性能提升。因此,我们简要介绍了广泛应用于各种城市计算任务的深度学习模型。最后,我们讨论了城市计算的应用,包括城市规划、城市交通、基于位置的社交网络 (LBSN)、城市安全与保障以及城市环境监测。对于每个应用,我们总结了主要的研究挑战,并回顾了以前使用 AI 技术解决这些挑战的工作。
摘要 知识密集型任务对机器学习 (ML) 技术提出了重大挑战。常用的方法,例如大型语言模型 (LLM),在应用于此类任务时往往会表现出局限性。尽管如此,人们已经做出了显著的努力来缓解这些挑战,重点是通过知识图谱 (KG) 来增强 LLM。虽然 KG 在表示知识方面具有许多优势,但它们的开发成本可能会阻碍广泛的研究和应用。为了解决这一限制,我们引入了一个框架,用于使用完善的通用 KG 来丰富小规模领域特定知识图谱的嵌入。采用我们的方法,当链接到大量通用 KG 时,适度的领域特定 KG 可以从下游任务的性能提升中受益。实验评估表明性能显着增强,Hits @ 10 指标最高可提高 44%。这个相对未被探索的研究方向可以催化知识图谱更频繁地融入知识密集型任务中,从而产生更稳健、更可靠的机器学习实现,这比普遍存在的 LLM 解决方案更少产生幻觉。
摘要 — 本文研究了一种无人机 (UAV) 辅助移动边缘计算 (MEC) 系统,其中 UAV 为地面 MEC 系统提供补充计算资源。UAV 通过创建相应的虚拟机来处理从移动用户 (MU) 接收的计算任务。由于 MEC 系统中 UAV 的共享 I/O 资源有限,每个 MU 都会在决策时期内竞争安排本地和远程任务计算,旨在最大化预期的长期计算性能。MU 之间的非合作交互被建模为随机博弈,其中 MU 的决策取决于全局状态统计数据,并且所有 MU 的任务调度策略是耦合的。为了近似纳什均衡解,我们提出了一种基于长短期记忆和深度强化学习 (DRL) 技术的主动方案。建立 MEC 系统的数字孪生,以离线训练主动 DRL 方案。使用所提出的方案,每个 MU 仅使用自己的信息进行任务调度决策。数值实验表明,该方案在决策时期内每个 MU 的平均效用方面具有显着的性能提升。