不寻常的环境或遭受损害的环境可能需要数年的时间才能收集。标记以注释测量值也可能是有限的或昂贵的,需要域专家的投入。这种不完整的数据激发了相似资产之间的共享信息;具体而言,具有全面数据(或已建立模型)的系统是否可以为那些提供不完整信息的人提供支持。从一台机器到另一种机器的知识转移概念导致了基于人群的发展(Bull等,2021; Gardner,Bull,Bull,Gosliga等,2021; Gosliga等,Gosliga等,2021)或车队监控(Zaccaria et al。,2018)。初步研究(主要)考虑系统之间相似性的序列化(Gosliga等,2021)和用于传输数据和/或模型从源到目标域的工具(Bull等,2021; Gardner,Bull,Bull,Dervilis等人,2021; Michau&Fink&Fink&Fink,2019)。这里考虑了一种替代方法,从而鉴于收集到的系统组的测量值进行了合并的分解(Dhada等,2020)。具体来说,考虑到收集的人群记录的信息,学会了一组相关的层次模型。提出了两个案例研究:对操作风电场的操作卡车舰队和风能预测的生存分析。人口级模型是使用近阶贝叶斯建模(Gelman等,2013; Wand,2009)学习的,与独立模型和两个基准相比,提供了稳健的预测和差异。多任务学习(MTL)方法(Murphy,2012; Wand,2009)自动共享相关域(即子组)之间的信息,从而使信息稀疏的资产从数据富含数据的人那里借鉴了统计强度(通过相关变量)。
与人工智能 (AI) 共同创作是即将到来的趋势。然而,对于日本小说家系统的构建关注较少。在本研究中,我们构建了“BunCho”,一个由人工智能支持的日语故事共同创作系统。BunCho 的人工智能是 GPT-2(一种无监督的多任务语言模型),使用大量日语网络文本和小说数据集进行训练。使用 BunCho,用户可以从关键字生成标题和概要。此外,我们提出了一个交互式故事共同创作人工智能系统作为桌面角色扮演游戏。根据对作家(N=16)和读者(N=32)的总结性研究,69% 的作家更喜欢用 BunCho 写故事梗概,客观评价中至少有五个常见指标中的一个得到了提高,包括创造力。此外,63% 的作家表示 BunCho 拓宽了他们的故事范围。BunCho 指明了帮助日本小说家创作高水平和创造性作品的途径。
• Change habits, understand cause and effect • Deal with complexity, multitask • Problem-solve creatively, analyze ideas • Pay attention to “boring” stuff, tolerate frustration • Look for help or more information • Manage strong emotions like panic/terror • Develop insight – see and correct own mistakes • Persevere - both hard tasks and long-term goals • Cooperate and collaborate with others
多任务学习假设能够从多个任务中学习的模型可以通过知识迁移实现更好的质量和效率,这是人类学习的一个关键特征。然而,最先进的 ML 模型依赖于每个任务的高度定制,并利用大小和数据规模而不是扩展任务数量。此外,持续学习将时间方面添加到多任务中,通常专注于研究常见的陷阱,例如灾难性遗忘,而不是将其作为构建下一代人工智能的关键组成部分进行大规模研究。我们提出了一种能够生成支持动态添加新任务的大规模多任务模型的进化方法。生成的多任务模型是稀疏激活的,并集成了基于任务的路由,可保证在模型扩展时计算成本有限并且每个任务添加的参数更少。所提出的方法依赖于知识分区技术来实现对灾难性遗忘和其他常见陷阱(如梯度干扰和负迁移)的免疫。我们通过实验证明,所提出的方法可以联合解决 69 个公共图像分类任务并取得有竞争力的结果,例如,与在公共数据上训练的最佳模型相比,通过实现 15% 的相对误差减少,提高了 cifar10 等竞争基准的最新水平。
9. A.Radford 等人,“语言模型是无监督的多任务学习者”(GPT-2),https://d4mucfpksywv.cloudfront.net/better-language-models/language-models.pdf,2019 年。
能够计划和确定自己的工作优先级以持续达到同意的目标,能够通过最低限度的监督来执行工作,以便能够解决问题能够准确地输入数据,这表明了及时的计时,并在工作场所>
我们提出了 MatSci-NLP,一种用于评估自然语言处理 (NLP) 模型在材料科学文本上的性能的自然语言基准。我们根据公开的材料科学文本数据构建基准,涵盖七种不同的 NLP 任务,包括命名实体识别和关系分类等传统 NLP 任务,以及特定于材料科学的 NLP 任务,例如与创建材料合成程序有关的合成动作检索。我们研究了在 MatSci-NLP 上在不同科学文本语料库上预训练的各种基于 BERT 的模型,以了解预训练策略对理解材料科学文本的影响。鉴于材料科学领域高质量注释数据的稀缺,我们使用有限的训练数据进行微调实验,以促进在 MatSci-NLP 任务中的推广。我们在这种低资源训练环境中进行的实验表明,在科学文本上预训练的语言模型比在一般文本上训练的 BERT 表现更好。Mat-BERT 是一种专门针对材料科学期刊进行预训练的模型,通常在大多数任务中表现最佳。此外,我们提出了一种用于 MatSci-NLP 多任务学习的统一文本到模式,并将其性能与传统微调方法进行了比较。在对不同训练方法的分析中,我们发现我们提出的受问答启发的文本到模式方法始终优于单任务和多任务 NLP 微调方法。代码和数据集是公开可用的 1 。
多年来,单板计算机 (SBC) 领域的发展一直在不断加快。它们在计算性能和功耗之间实现了良好的平衡,这通常是移动平台所必需的,例如用于高级驾驶辅助系统 (ADAS) 和自动驾驶 (AD) 的车辆应用。然而,对更强大、更高效的 SBC 的需求日益增长,这些 SBC 可以实时运行功耗密集型深度神经网络 (DNN),还可以满足必要的功能安全要求,例如汽车安全完整性等级 (ASIL)。ZF 正在开发“ProAI”,主要用于运行强大而高效的应用程序,例如多任务 DNN,此外,它还具有 AD 所需的安全认证。在这项工作中,我们基于功耗密集型多任务 DNN 架构 Multitask-CenterNet,就 FPS 和功率效率等性能指标比较和讨论了最先进的 SBC。作为一款汽车超级计算机,ProAI 实现了性能和效率的完美结合,其每瓦 FPS 数量几乎是现代工作站笔记本电脑的两倍,几乎是 Jetson Nano 的四倍。此外,根据基准测试期间的 CPU/GPU 利用率,还显示 ProAI 上仍有剩余电量用于执行进一步更复杂的任务。
Devlin, Jacob 等人。“Bert:用于语言理解的深度双向转换器的预训练。”arXiv 预印本 arXiv:1810.04805 (2018)。Radford, Alec 等人。“语言模型是无监督的多任务学习者。”OpenAI 博客 1.8 (2019):9。Brown, Tom 等人。“语言模型是少数学习者。”神经信息处理系统进展 33 (2020):1877-1901。Chowdhery, Aakanksha 等人。“Palm:使用路径扩展语言建模。”arXiv 预印本 arXiv:2204.02311 (2022)。
Andreas,J。,Klein,D。和Levine,S。(2017)。 模块化多任务增强措施学习政策草图。 Law,M.,Russo,A。和Broda,K。(2015)。 用于学习答案集程序的ILASP系统。 Sutton,R。S.,Precup,D。和Singh,S。P.(1999)。 MDP和半MDP之间:增强学习中时间抽象的框架。 Toro Icarte,R.,Klassen,T。Q.,Valenzano,R。A.和McIlraith,S。A. (2018)。 使用奖励机进行高级任务规范和强化学习中的分解。Andreas,J。,Klein,D。和Levine,S。(2017)。模块化多任务增强措施学习政策草图。Law,M.,Russo,A。和Broda,K。(2015)。 用于学习答案集程序的ILASP系统。 Sutton,R。S.,Precup,D。和Singh,S。P.(1999)。 MDP和半MDP之间:增强学习中时间抽象的框架。 Toro Icarte,R.,Klassen,T。Q.,Valenzano,R。A.和McIlraith,S。A. (2018)。 使用奖励机进行高级任务规范和强化学习中的分解。Law,M.,Russo,A。和Broda,K。(2015)。用于学习答案集程序的ILASP系统。Sutton,R。S.,Precup,D。和Singh,S。P.(1999)。MDP和半MDP之间:增强学习中时间抽象的框架。Toro Icarte,R.,Klassen,T。Q.,Valenzano,R。A.和McIlraith,S。A.(2018)。使用奖励机进行高级任务规范和强化学习中的分解。