生活节奏的加快和短视频的蓬勃发展挤压了在知识传播中扮演重要角色的长视频的生存空间。为了解决这一困境,视频摘要被提出来促进视频观看和知识获取。而人工智能的出现使这一解决方案成为可能。我们认为人工智能生成的视频摘要可能会减少获取信息的努力,但逻辑混乱和信息丢失可能会降低获取的信息质量。基于努力-准确性框架,对信息质量要求不同的用户对有/无人工智能摘要的视频会有不同的反应。因此,我们计划进行实验室实验,探索人工智能摘要是否以及如何增加用户的视频观看意愿。此外,我们还将研究人工智能摘要的使用是否影响知识获取质量。我们希望加深对人工智能视频摘要使用的理解,并提供如何使其有效工作的见解。
变分算法(例如量子近似优化算法)因其有可能使用近期的量子计算机解决问题而备受关注。在这种算法中,ZZ 相互作用通常会生成原始的两量子比特门,该门的作用时间通常是变分参数 γ 。在两量子比特门的实现方面,存在不同的编译技术。由于 ZZ 门的重要性,我们提出了一个误差分析,比较连续角度控制相位门( CP )与固定角度控制 Z 门( CZ )。我们在相干过度旋转和去极化噪声的影响下分析了这两种技术。我们表明,如果非相干误差低于 0.03 % 且相干误差低于 0.8 %,则 CP 和 CZ 编译技术可实现相当的 ZZ 门保真度。因此,我们认为,对于较小的相干和非相干误差,非参数化的双量子比特门(如 CZ)与单量子比特门的虚拟 Z 分解相结合,可以显著减少所需的校准,从而减少量子设备的错误率。我们表明,当相干误差超过 0.04 π(2%)时,CZ 门保真度显著依赖于 γ。
摘要 电子束 (e-beam) 产生的等离子体在施加交叉电场和磁场 (E × B) 的情况下有望用于低损伤材料处理,并应用于微电子和量子信息系统。在圆柱形电子束 E × B 等离子体中,电子和离子的径向约束分别通过轴向磁场和径向电场实现。为了控制电子的轴向约束,这种电子束产生的等离子体源可能包含一个称为反阴极的导电边界,该边界位于等离子体与阴极轴向相对的一侧。在这项工作中,结果表明,改变反阴极电压偏置可以控制反阴极收集或排斥入射电子的程度,从而可以控制热电子(电子能量在 10-30 eV 范围内)和束电子群约束。有人提出,反阴极偏压对这些不同电子群形成的影响也与弱湍流和强朗缪尔湍流之间的转变有关。
摘要 电子束 (e-beam) 产生的等离子体在施加交叉电场和磁场 (E × B) 的情况下有望用于低损伤材料处理,并应用于微电子和量子信息系统。在圆柱形电子束 E × B 等离子体中,电子和离子的径向约束分别通过轴向磁场和径向电场实现。为了控制电子的轴向约束,这种电子束产生的等离子体源可能包含一个称为反阴极的导电边界,该边界位于等离子体与阴极轴向相对的一侧。在这项工作中,结果表明,改变反阴极电压偏置可以控制反阴极收集或排斥入射电子的程度,从而可以控制热电子(电子能量在 10-30 eV 范围内)和束电子群约束。有人提出,反阴极偏压对这些不同电子群形成的影响也与弱湍流和强朗缪尔湍流之间的转变有关。
摘要AI生成的媒体的扩散,尤其是在艺术方面,引发了人们的兴趣创建与原始和AI生成的艺术品之间的模型。但是,了解为什么这些模型做出某些决策仍然是一个重大挑战。本文通过使用Grad-CAM来生成模型焦点区域的视觉解释,并结合大型语言模型(LLMS)来提供自然语言描述,从而增强了基于视觉变压器的分类模型的解释性。我们通过使用它们来生成用于艺术品分类的Grad-CAM可视化的文本说明,评估了三个尖端的LLM:Llava-下一个,指令Blip和Kosmos-2。通过定量和定性分析,我们发现,尽管指令blip和kosmos-2在生成的描述和视觉内容之间达到了更高的相似性得分,但llava-next提供了更具洞察力和连贯的解释,尤其是对于AI生成的艺术。这项研究证明了LLM在复杂的图像分类任务中提高AI决策的解释性的潜力,有助于弥合模型决策与人类理解之间的差距。
人工智能生成的虚假信息与传统的人类生成的虚假信息有何不同?在这里,我们重点介绍了四个潜在的差异因素:规模、速度、易用性和个性化。首先,人工智能使大规模生产虚假信息活动的内容变得更加容易,这些内容可以转化为更多的虚假故事、同一故事的多种变体、不同语言的呈现、自动对话等等。其次,与手动内容生成相比,人工智能技术可以在几秒钟内生成虚假信息。前两个因素——规模和速度——对事实核查人员来说是一个挑战,因为他们将被虚假信息淹没,但仍需要大量时间来揭穿真相。第三,随着人工智能工具更广泛地渗透到社会中,它们将降低开展影响力行动的门槛。人们可以使用人工智能工具创建逼真的假图像和视频,而无需专业知识或耗时的手动编辑。这可能会使网络喷子农场变得民主化。第四,人工智能技术使得针对特定受众(或个人)及其偏好或信仰发起个性化的虚假信息活动成为可能,而无需深入了解目标的语言或文化。例如,个性化的虚假信息可能针对不同年龄、政治意识形态、宗教信仰和性格类型(例如外向或内向)的人,这可能会增加虚假信息活动的说服力。那些已经被社会边缘化或媒体素养较低的人可能特别容易受到攻击。
生成AI工具的兴起引发了有关AI生成内容的标签的辩论。然而,此类标签的影响仍然不确定。在我们和英国参与者之间进行了两个预先核实的在线实验(n = 4,976),我们表明,尽管参与者并未将“ AI生成”等同于“ false”,但标记为AI生成的标签降低了他们所感知的准确性,并降低了他们的准确性,并且参与者愿意分享他们,无论是在headline是否是由True of True of True of True of True of True of True of True of Flunans或An an Humans或Anii创建的。标签标题为AI生成的影响的影响是将其标记为假的三倍。这种AI的厌恶是由于预期被标记为AI生成的头条的期望完全由AI撰写,没有人为监督。这些发现表明,应谨慎对待AI生成的内容的标签,以避免对无害甚至有益的AI生成的内容的意外负面影响,并且有效的标签部署需要透明度就其含义。
人工智能(AI)的出现已使对各种应用的材料进行了全面的探索。但是,AI模型通常优先考虑科学文献中经常遇到的材料示例,从而根据固有的物理和化学属性限制了合适的候选者的选择。为了解决这种不平衡,我们生成了一个数据集,该数据集由OQMD,材料项目,JARVIS和AFLOW2数据库的1,453,493个自然语言材料叙事组成,这些叙述基于从头算的计算结果,这些结果在周期表中更均匀分布。基于三个标题:技术准确性,语言和结构以及内容的相关性和深度的人类专家和GPT-4对生成的文本叙述进行了评分,显示了相似的分数,但内容的深度是最滞后的。多模式数据源和大语言模型的集成具有巨大的AI框架潜力,以帮助探索和发现固态材料以进行特定的利益应用。
该报告的范围是主要关注氧气市场,生产场景和最终在该项目中考虑的案例研究中使用机会。基于讨论的氧气的各个市场,钢铁行业对绿色氢的未来进行了巨大的投资,因为在其过程中需要大量的过程才能摆脱依赖煤炭的生产。该病例已被研究以提供从100兆瓦电解器产生的氧气以用于燃烧或炉子。加工氧气以去除氢和水以去除氢和水。它将进一步压缩至15个bar,可以通过管道运送到钢铁行业。同样,研究了另一例,用于在医院提供2500张病床的医用氧气,每年需要约1,210万NM3的氧气。提出了一个由近海风电场供电的20 MW电解器,然后在200 bar处通过圆柱运输纯化的氧气。