摘要 在当今世界,多语言已成为常态,单语者是少数,学术研究一直未能适应这一现实。这一现象凸显了人类大脑掌握多种语言的能力,无论是母语 (L1)、第二语言 (L2) 还是第三语言 (L3),这要求重新评估传统范式。本研究旨在挑战认知语言学的传统方法,特别是与语言习得、语言选择和潜在的大脑过程相关的方法。研究问题包括:个人如何在不同的认知和社会背景下在多种语言之间导航,这对我们理解人类的认知能力有何影响?所采用的方法结合了使用脑成像、心理语言学测试和多语言使用者的社会语言学调查的实验分析。研究结果表明,双语和多语不仅可以提高认知灵活性,还可以提高多元文化环境中的解决问题的能力和适应能力。总之,本研究表明,多语言能力不仅仅是多种语言系统的习得,而是一种影响认知、社交互动和大脑结构的复杂现象。通过重新定义我们对认知和语言过程的理解,本研究提出了在全球化背景下研究语言的新范式。
我们建议在短期内采用多种合规途径来实施建筑规范,并逐步实施更严格的减排要求。这项建议在环境和经济节约与可行性之间取得平衡,为教育和培训留出更多时间。建议的方法(情景 P.7)将使华盛顿州新建筑的碳排放量比正常情况减少 16%,或在 2025-2050 年期间节省 570 万公吨二氧化碳当量(节省约 7.7 亿美元的社会成本)。这一估计的碳节约量与华盛顿州 2022 年通过的备受赞誉的商业电气化规范估计的 810 万公吨二氧化碳当量节约量处于同一数量级(Kocher & Gruenwald,2022 年)。如果设定的目标比 WBLCA 减少 30% 更严格,那么可以实现比本报告中显示的更大的节约量。
联系方式:马丁·韦切夫教授,苏黎世联邦理工学院,瑞士,silq@inf.ethz.ch 背景:最近的努力已经将量子计算机改进到可以在某些任务上超越传统计算机的程度,这种情况被称为量子霸权。量子计算机运行量子算法,通常用低级量子语言 Silq 表示。我们发布了 Silq,这是第一种旨在从量子算法的低级实现细节中抽象出来的高级量子语言。Silq 在 GitHub(https://github.com/eth-sri/silq)上公开可用,并根据免费开源 Boost 软件许可证 1.0 获得许可。作为一项关键的创新,Silq 有助于弥合经典语言和量子语言之间的概念差距。因此,Silq (i) 降低了非专业量子程序员的入门门槛,(ii) 通常有助于简洁明了地表达复杂算法,以及 (iii) 促进了 50 多年来为传统计算开发的编程和分析技术向量子编程领域的技术转移。比较。虽然传统上量子算法通常以电路的形式指定,但量子语言更方便地将量子算法表达为源代码。然而,现有的量子语言迫使程序员在较低的抽象层次上工作,仍然本质上指定将量子操作明确应用于单个量子位的量子电路。因此,用这些语言实现量子算法是繁琐且容易出错的。相比之下,Silq 支持对量子算法的描述性视图,表达了程序员的高级意图。然后,将这些算法编译成低级量子电路成为二阶关注点,可以由专门的编译器处理,就像在传统编程语言中一样。我们的实验评估表明,Silq 程序比其他量子语言中的等效程序短得多(Q# 平均缩短 46%,Quipper 缩短 38%),同时仅使用一半的量子原语。因此,Silq 程序不仅更短,而且更易于读写,因为它们需要的原语和概念更少。大部分评估都集中在 Q# 上,因为 (i) 它是使用最广泛的量子语言之一,(ii) 我们认为它比 Cirq 或 QisKit 更高级,(iii) 2018 年和 2019 年的 Q# 编码竞赛提供了大量 Q# 实现,我们可以利用它们进行比较。
无缝的人类机器人相互作用(HRI)需要机器人对人类的多模式输入的熟练处理,包括语音,凝视和面部表情,以准确评估人类的影响并相应地提供帮助。同时,机器人必须通过多模态输出渠道清楚地将自己的意图清楚地传达给人类,包括语音,手势和凝视。传统上,在机器人系统中实现此功能通常需要复杂的设计。在意图估计的领域中,以前的研究通常合并意图识别模块,以基于多模式输入[3,17]对人类意图进行分类。一些系统还具有用于检测人类情感状态的专用模块,对于建立社会细微差别的互动至关重要[10,16,18]。但是,这些方法的缺点在于它们耗时且昂贵的培训过程。在输出方面,许多先前的系统集成了情绪状态[8,11]模块,以控制人形输出提示,例如音调,凝视或面部表情,增强了向人类反馈的透明度和生动性。关于运动产生,提出了多种方法,包括预先建立的运动集的混合和图表[19,25],以及使用运动捕获数据[5,9,15]。值得注意的是,这涉及与特定状态相关的每种输出模式的动作手动设计。通过利用文本理解,推理和计划的能力,在短时间内提出了许多机器人应用[7,12,14,20,21,28]。例如,Zhang等人。大型语言模型(LLM)的最新进展,诸如聊天机器人,数据过程和代码生成之类的域中的表现令人印象深刻的功能正在揭示其在机器人技术领域的潜在应用。其中一个通常的例子是“ Saycan”机器人[1],它能够解释人的自然语言命令,分析环境并生成具体的可执行操作序列,以通过使用LLMS来满足人类的要求。但是,机器人和人之间的互动提示仅限于语音命令,即使没有语音输出。最近,一些研究人员还试图将这种技术应用于HRI领域。利用LLM来估计人类有多少信任机器人[30]; Yoshida等人,使用LLMS生成低级控制命令来推动人形机器人运动以进行社会表达[29],而不是用于实践援助。Baermann等人,部署了LLM不仅遵循人类的言语命令,而且还通过人类的自然语言反馈来纠正其错误[2]。然而,通信主要依赖语音相互作用,而较少关注多模式感应和表达能力。ye等。[27]驱动了一个LLM驱动的机器人系统,该系统能够与人类在VR环境中的组装任务中合作。,但是该系统仅限于处理人类语言输入并控制虚拟空间中的单臂。通常,与快速
培训大语言模型(LLM)已成为人工智能进展的核心,数据集,培训前和训练后方法在其性能和可扩展性方面扮演着互补的角色。此博士学位课程探讨了训练这些模型的关键阶段,并强调了数据对下游任务中模型性能的影响。学生将通过全面研究数据集构建,优化技术,缩放定律,培训前策略,合成数据生成以及培训后的改进(例如,进行微调和对齐方式),通过全面的研究构建LLM的理论和实践。该课程将结合理论指导与动手实验相结合。学生将洞悉:##创建高质量,多样化和有效数据集的原则和方法。##¢优化策略,用于大规模模型培训,包括计算效率。##经验缩放定律及其对模型大小和数据集大小的影响。#¢利用合成数据及其在改善概括和鲁棒性中的作用。##训练技术,例如人类反馈(RLHF)的增强学习以及与期望的结果结合。
欧盟自 2019 年以来一直在实施其数据战略。1 面向工业的数据单一市场的一个关键组成部分是建立“可互操作的数据空间”以“汇集关键行业的欧洲数据”,在这个市场中“数据可以在欧盟内部和跨行业流动,造福所有人”、“欧洲规则 […] 得到充分尊重”并且“数据访问和使用规则公平、实用和明确”。欧盟委员会(2022 年)描述了一个初步的、相当粗略的概念,包括如何建立和运营这些数据空间,包括相关立法(另见 Nagel 和 Lycklama,2021 年)。该文件还列出了一些针对制造业、交通、医疗、金融、能源、农业和技能等行业的“官方”欧盟数据空间。由数字欧洲计划 (DEP) 2 中的采购合同资助的欧洲通用语言数据空间 (LDS) 就是这些官方欧盟数据空间之一。 3
本文论文讨论了这种新的DNABERT模型,并解决了它对生物学和健康产生影响的程度。在这里,与当前现有模型相比,DNABERT是否是革命性的。通过比较先前研究中预测模型的准确性与DNABERT的准确性,我得出的结论是,DNABERT可以在剪接位点预测上获得出色的性能,并且可以获得最高的准确性,但无法获得启动子预测的出色性能。因此,我的目的是确定DNABERT的工作原理,以便可以获得可能可以用于进一步优化和自定义的理解。因此,分析了DNABERT的K-MER令牌化方法和字节对编码。这是通过采用Ji等人的DNABERT的所述方法来进行的。(2021)和Zhou等人的DNABERT-2。(2023)。从此分析中可以得出结论,两种方法都比现有的DNA/RNA预测方法更好,但是BPE是最有前途的。之后,使用DNABERT(DNABERT-PROM)重点介绍了启动子预测,以清楚地了解其过程以及如何进行预培训。为了获得此信息,Ji等人的DNABERT-PROM方法的描述。(2021)进行了调整。在这里,可以确定的是,使用具有TATA-Box存在或不存在的远端启动子,对DNABERT-PROM进行了培训,以预测Homo Sapiens。此外,使用EPDNEW数据库获取启动子的数据。为此,Ji等人的DNABERT的描述特性。在分析了DNABERT-PROM之后,我得出的结论是,它是一个高效的模型,可以预测Homo Sapiens中的启动子。最后,我选择提供更广泛的DNABERT观点,以研究如何在生物学和健康领域中应用。(2021)进行了调整,并将其与生物学和健康中的当前限制进行了比较。在这里,我得出的结论是,DNABERT是生物学和健康中转录调节预测的最有前途的模型,因为它可以解决上下文所需的信息。我得出的结论是,DNABERT也应该是执行其他类型的DNA/RNA预测的“第一选择”方法,尽管它们的用法绝不能替代研究和诊断中的决策。尽管DNABERT已经是一个非常充分的预测模型,但仍需要进一步的优化和自定义来扩大其对生物学和健康中顺序预测的贡献。
大脑解码技术为解释神经活动的解释以重现思想,情感和运动的方式铺平了道路。Tang等。 (2023)引入了一种新颖的方法,该方法将语言模型用作基于功能磁共振成像(fMRI)数据的大脑解码的生成模型。 在他们的工作中构建,这项研究探讨了使用三种其他语言模型的使用以及先前研究中使用的GPT模型,以改善解码功能。 此外,我们使用嵌入模型添加了一个评估度量,提供了比BertScore更高水平的语义相似性。 通过比较解码的表现并确定导致良好性能的因素,我们发现高解码精度并不仅仅取决于准确预测大脑活动的能力。 相反,该模型倾向于生成更精确的句子重新构造的文本类型(例如Web文本,博客,新闻文章和书籍),它倾向于生成更重要的作用。Tang等。(2023)引入了一种新颖的方法,该方法将语言模型用作基于功能磁共振成像(fMRI)数据的大脑解码的生成模型。在他们的工作中构建,这项研究探讨了使用三种其他语言模型的使用以及先前研究中使用的GPT模型,以改善解码功能。此外,我们使用嵌入模型添加了一个评估度量,提供了比BertScore更高水平的语义相似性。通过比较解码的表现并确定导致良好性能的因素,我们发现高解码精度并不仅仅取决于准确预测大脑活动的能力。相反,该模型倾向于生成更精确的句子重新构造的文本类型(例如Web文本,博客,新闻文章和书籍),它倾向于生成更重要的作用。
抽象的语法校正校正(GEC)工具,由先进的生成人工智能(AI)提供动力,在用户输入中有效地纠正了语言的不准确性。但是,它们通常在提供基本的自然语言解释方面缺乏,这些解释是学习语言并获得对语法规则的更深入的理解。在低资源语言(例如孟加拉语)中对这些工具的探索有限。在这样的语言中,革命错误说明(GEE)系统不仅应正确句子,而且还应提供错误的解释。这种综合方法可以帮助语言学习者寻求提高能力。我们的工作介绍了一个现实世界中的多域数据集,该数据集来自孟加拉语扬声器,具有不同的义务水平和语言复杂性。此数据集可作为GEE系统的评估基准标记,允许他们使用上下文信息来生成有意义的解释和高质量的更正。Various generative pre-trained large language models (LLMs), in- cluding GPT-4 Turbo, GPT-3.5 Turbo, Text-davinci-003, Text-babbage- 001, Text-curie-001, Text-ada-001, Llama-2-7b, Llama-2-13b, and Llama-2-70b, are assessed against human experts for performance comparison.我们的研究强调了自动部署孟加拉人GEE的当前最新生成预培训的LLM的局限性。主张进行人干预,我们的发现提议合并手动检查以解决语法错误并提高反馈质量。这种方法提出了一种更合适的策略,以重新确定孟加拉语的GEC工具,并阐明了语言学习的教育方面。
视觉 - 语言变压器(VLT)最近显示出巨大的成功,但同时伴随着大量的计算成本,其中主要原因可以归因于大量的视觉和语言令牌。存在用于压缩VLTS的令牌修剪研究主要遵循基于单模式的方案,但忽略了对齐不同模态来指导令牌修剪过程的关键作用,从而导致重要的代币在另一个模态分支中错误地修剪一个模态。同时,现有的VLT修剪作品也缺乏基于不同输入样本动态压缩每一层的灵活性。为此,我们提出了一个名为M Ultodal的新颖框架,用于加速变化VLT的木质制成d ynamic t ynamic t oken p Runing(MADTP)。具体来说,我们首先引入了精心设计的多模式对齐指导(MAG)模块,该模块可以使相同语义概念的特征与不同的模式相结合,以确保修剪的代币对所有模式都不太重要。我们进一步设计了一种新型的dy-namic令牌修剪(DTP)模块,该模块可以根据不同的输入实例自适应地调节每个层中的令牌压缩比。对各种基准测试的广泛实验表明,MADTP可以显着确定多种模型的计算复杂性,同时保留竞争性能。值得注意的是,当将MADTP应用于NLVR2数据集中的BLIP模型时,可以将GFLOPS降低80%,而性能降低少于4%。该代码可在https://github.com/double125/madtp上找到。
