背景................................................................................................................................................................................................ ...................................................................................................................................................................................... 3
摘要:同声传译是一项复杂的任务,被认为与高工作量相关。为了证实这种关联,我们使用脑电图和自我评估,对四组具有不同同声传译经验的参与者在三个越来越复杂的任务中测量了工作量:聆听、跟踪和口译。自我评估数据显示,与经验较少的参与者相比,专业口译员认为工作量最大的条件,即口译任务,要求较低。非口译员主观感知到的较高工作量与从聆听到口译的额叶θ功率值的增加相一致,而这种调节在专业口译员中不太明显。此外,就这两项工作量测量而言,实习口译员处于专业口译员和非口译员之间。由于非口译员也表现出较高的第二语言熟练程度和接触度,我们的研究结果为口译培训对同声传译工作量的影响提供了证据。
在复杂环境中的机器人导航仍然是一项关键的研究挑战。值得注意的是,由于四足机器人的地形适应性和移动敏捷性,四足动导航已取得了重大进展。但是,传统的导航任务将机器人限制在预定义的自由空间中,并专注于避免障碍物,从而限制了它们在更具挑战性的环境中的适用性,例如缺乏可行的目标途径的场景。我们提出了一种交互式导航方法,该方法利用敏捷四足动物的运动来适应各种地形并与环境互动,更改工作区以应对开放且复杂的环境中挑战性的导航任务。我们提出了一棵原始树,用于使用大语言模型(LLM)的高级任务计划,从而促进了长期任务的有效推理和任务分解。树结构允许添加动态节点和修剪,从而对新观测值进行自适应响应,并在导航过程中增强鲁棒性和实时性能。对于低级运动计划,我们采用强化学习来预先培训技能库,其中包含复杂的运动和互动行为,以执行任务。此外,我们引入了一种基于认知的重型方法,该方法由顾问和树木师组成,以应对实时自我的观察。该提出的方法已在多个模拟场景中得到了验证,该方法在不同的情况下阐明了其在各种情况下的有效性和在部分可观察的条件下的实时适应性。
培训大语言模型(LLM)已成为人工智能进展的核心,数据集,培训前和训练后方法在其性能和可扩展性方面扮演着互补的角色。此博士学位课程探讨了训练这些模型的关键阶段,并强调了数据对下游任务中模型性能的影响。学生将通过全面研究数据集构建,优化技术,缩放定律,培训前策略,合成数据生成以及培训后的改进(例如,进行微调和对齐方式),通过全面的研究构建LLM的理论和实践。该课程将结合理论指导与动手实验相结合。学生将洞悉:##创建高质量,多样化和有效数据集的原则和方法。##¢优化策略,用于大规模模型培训,包括计算效率。##经验缩放定律及其对模型大小和数据集大小的影响。#¢利用合成数据及其在改善概括和鲁棒性中的作用。##训练技术,例如人类反馈(RLHF)的增强学习以及与期望的结果结合。
符号任务计划是一种广泛使用的方法来强制机器人自主权,因为它易于理解和部署工程机器人体系结构。然而,符号任务计划的技术很难在现实世界中进行扩展,高度动态的人类机器人协作场景,因为在计划域中的性能不佳,在计划领域的效果不佳,在这种情况下可能不会立即进行效应,或者由于机器人工作空间中的情况而发生了频繁的重新计划。长期,计划长度和计划时间的计划有效性可能会阻碍机器人的效率,并对整体人类机器人互动的影响产生负面影响。我们提出了一个框架,我们将其称为Teriyaki,旨在弥合符号任务计划和机器学习方法之间的差距。基本原理是培训大型语言模型(LLM),即GPT-3,将与计划域定义语言(PDDL)兼容的神经成像任务计划师,然后利用其生成能力克服象征性任务计划固有的许多限制。潜在的好处包括(i)在计划领域的复杂性增加的情况下,可以更好地可伸缩性,因为LLMS的响应时间与输入和输出的总长度线性扩展,而不是超线性,而不是像符号任务计划者那样超线性,而在符号任务计划中,以及(ii)的行动,而不是依次实现行动,而不是依次进行动作,那么就可以实现行动,而不是依次进行动作,而不是依次实现。为了使整个计划可用,这又可以同时进行计划和执行。在过去的一年中,研究界致力于评估LLMS的整体认知能力,并取得了替代成功。取而代之的是,使用Teriyaki,我们的目标是提供与特定计划域中传统规划师相当的整体计划绩效,同时利用其他指标的LLMS功能,特别是与其短期和中期生成能力相关的指标,这些能力用于建立一个构建观察性预测性计划模型。选定域中的初步结果表明我们的方法可以:(i)在1,000个样本的测试数据集中解决95.5%的问题; (ii)与传统象征计划者相比,生产计划短多达13.5%; (iii)将计划可用性的总体等待时间减少高达61.4%。
i NLP 1 1简介的基本算法。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。3 2正则表达式,令牌化,编辑距离。。。。。。。。。。。。。。。4 3 n克语言模型。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。32 4天真的贝叶斯,文本分类和情感。。。。。。。。。。。。。。。。。56 5逻辑回归。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。77 6矢量语义和嵌入。。。。。。。。。。。。。。。。。。。。。。。。。。。。。101 7神经网络。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。132 8 RNN和LSTMS。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。158 9变压器。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。184 10大语言模型。。。。。。。。。。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>203 11蒙版语言模型。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>223 12模型对齐,提示和内在学习。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>。 div>242 div>