作为人工智能(AI)和机器学习(ML)彻底改变了全世界的行业,法律部门有望进行变革性转变。传统上认为是保守和抵抗变革的行业,现在面临着一场技术革命,既有望既有机会又有巨大的机会和风险。简单地说,ML正在从数据中学习(Hastie等人,2009年)和大型语言模型(LLMS)从大量数据中学习(Chang等人,2024)。法律领域中AI的开发基本上取决于法律数据的可用性和质量。法律文本与通用语料库相比具有独特的特征,因为该领域使用了众所周知的复杂,特定领域的语言(Ruhl,2008; Katz&Bommarito,2014; Nazarenko&Wyner,2017; Dale,2017; Dale,2017; 2017; Friedrich,2021; Glogar,2023; Trancoso; Trancoso et al。,2024)。增强法律AI能力的主要策略之一是在大量法律文本上进行培训的培训模型(Katz等人。,2020年; Chalkidis等。,2022; Wang等。,2023),在最近的几个法律LLM中显示(Chalkidis等人,2020年; Xiao等。,2021; Zheng等。,2021; Song等。,2022; Huang等。,2023)。
摘要 人工智能 (AI) 正在从根本上改变 IT 解决方案在所有应用领域(包括地理空间领域)的实施和运行方式。本文概述了基于 AI 的 3D 点云和地理空间数字孪生技术,作为地理空间 AI 的通用组成部分。首先,我们简要回顾一下“AI”一词,并从软件工程的角度概述将 AI 应用于 IT 解决方案所需的技术发展。接下来,我们将 3D 点云描述为地理数据的关键类别,及其在创建地理空间数字孪生基础中的作用;我们解释了机器学习 (ML) 和深度学习 (DL) 方法对 3D 点云的可行性。具体而言,我们认为 3D 点云可以看作具有与自然语言语料库相似属性的语料库,并为 3D 点云制定了“自然性假设”。在主要部分中,我们介绍了一种基于 ML/DL 方法解释 3D 点云的工作流程,该方法无需创建显式空间 3D 模型或显式规则集即可得出 3D 点云的特定领域和特定应用语义。最后,通过示例展示了 ML/DL 如何使我们能够高效地构建和维护地理空间数字孪生(例如虚拟 3D 城市模型、室内模型或建筑信息模型)的基础数据。
传统的推荐系统(例如矩阵分解方法)主要集中于学习共享密集的设备空间,以表示项目和用户偏好。sub-sub-sub,诸如RNN,GRUS和最近的序列模型在顺序推荐的任务中出现并出色。此任务需要了解用户历史交互中存在的顺序结构,以预测他们可能喜欢的下一个项目。基于大型语言模型(LLM)在各种任务中的成功,最近使用在庞大的文本中鉴定的LLM进行了研究,以进行顺序建议。要使用LLM进行顺序推荐,用户交互的历史记录和模型对下一个项目的预测都以文本形式表示。我们提出了CALREC,这是一种两阶段的LLM登录框架,它使用两种对比性损失和语言建模损失的混合物以两位较高的方式对经过验证的LLM进行了验证:LLM首先是在来自多个域中的数据混合物上进行的,随后是一个目标域芬特芬特登录。我们的模型极大地胜过许多最先进的基准( + 37%的回忆@1和ndcg@10中的24%),我们的系统消融研究表明,(i)两种固定阶段至关重要,当结合使用时,我们在相反的绩效中获得了相似的绩效,以及(ii)对比的一致性在目标域中有效地探索了我们的实验。
最近的研究已经看到了强大的神经网络语言模型的兴起,这些模型在计算上足够精确且神经合理,可以作为我们对大脑中语言处理的理解的跳跃基础。由于这些模型是为了优化类似目标(单词预测)而开发的,因此它们的大脑预测通常是相关的,即使模型在几个建筑和概念特征上有所不同,这对测试哪些模型特征与预测大脑中的语言处理最相关。在这里,我们通过综合新的句子刺激来解决这一挑战,这些刺激在一组语言模型的预测(“有争议的刺激”)之间最大程度地揭示了这一挑战,这些刺激(“有争议的刺激”)不会自然地发生在大型语言语言中。为此,我们开发了一个系统化此句子合成过程的平台,提供了一种轻松有效地测试不同基于模型的假设的方法。对这个平台的初步探索已经开始为我们提供一些直觉,即从不同的候选单词中选择如何影响所产生的句子的种类,以及哪些变化往往会产生有争议的句子。例如,我们表明分歧分数或句子模型之间的最大分歧量收敛。这种方法最终将使我们能够以最类似人类的方式确定哪些模型在预测大脑中的语言处理方面最成功,因此希望能够深入了解人类语言理解的机制。
卷积神经网络 (CNN) 在各种应用中的成功伴随着计算和参数存储成本的显著增加。最近为减少这些开销所做的努力包括修剪和压缩各个层的权重,同时力求不牺牲性能。在本文中,我们提出了一种受神经网络可解释性启发的 CNN 修剪新标准:使用从可解释人工智能 (XAI) 概念中获得的相关性分数,自动找到最相关的单元,即权重或过滤器。通过探索这个想法,我们将可解释性和模型压缩研究联系起来。我们表明,我们提出的方法可以在迁移学习设置中有效地修剪 CNN 模型,在这种设置中,在大型语料库上预训练的网络可以适应专门的任务。该方法在广泛的计算机视觉数据集上进行了评估。值得注意的是,我们的新标准不仅在进行连续再训练时与最先进的修剪标准相比具有竞争力或更好,而且在资源受限的应用场景中,其表现明显优于这些先前的标准,在这种场景中,要迁移到的任务的数据非常稀缺,并且人们选择不进行微调。我们的方法能够迭代压缩模型,同时保持甚至提高准确性。同时,它的计算成本与梯度计算的数量级相当,并且应用起来相对简单,无需调整修剪的超参数。
摘要:在过去的200年中,英语文化与其他种族有着广泛的接触,几乎总是来自主导地位(Filmer,2012年)。在英语中,几乎每个种族或族裔都有种族诽谤,而发誓单词通常在英语电视对话中使用。在电影字幕中翻译誓言构成了翻译挑战,由Soler Pardo(2015),Ávila-Cabrera(2016),Beseghi(2016)和Díaz-Pérez(2020)等学者进行了研究。本文分析了三个种族主义的称呼,分析了英语向意大利语,Eyetie和Goombah的翻译,用于指代意大利人或意大利人的人。分析的数据取自OpenSubtitles的英语 - 意大利平行语料库(Lison&Tiedemann,2016年),这是由翻译的电影字幕组成的平行语料库集。使用平行的一致性检索了包括这些种族主义词的各种电影的英文字幕,以及相应的意大利翻译。进行分析,目的是确定使用和翻译这些种族诽谤的一般趋势。此外,根据节制变量(例如电影中使用的语言,电影发行日期,电影拍摄的国家和电影类型)来测试这些变量是否对翻译选择有重大影响。关键字:种族诽谤;翻译;字幕;英语;意大利人。1。简介
警告: • 严重肝功能不全(Child-Pugh C)患者需要减少起始剂量并更频繁地监测 AST/ALT 2,3 • 在开始治疗前应充分控制已有的高血压 2,3 • 可能需要减少 selpercatinib 剂量以应对涉及 CYP 3A4 代谢途径的药物相互作用 2,3 • 据报道 QTc 延长;在治疗前纠正电解质异常并监测已知风险因素患者的心电图和电解质 2,3 • selpercatinib 与伤口愈合受损和出血有关;接受外科手术的患者可能需要停止使用 selpercatinib 2,3 • 肿瘤负担高、肿瘤快速生长、肾功能不全或脱水的患者可能会增加肿瘤溶解综合征的风险 2 特殊人群:如果使用 selpercatinib 治疗,生长板开放的儿科患者可能会增加生长迟缓的风险。在幼年动物研究中,观察到骨骺生长板肥大、股骨长度减少、骨矿物质密度降低和牙齿异常(例如牙齿发育不良、牙齿变色和错颌畸形)。有些影响是不可逆的。监测开放生长板患者的生长板异常。2 致癌性:尚未进行致癌性研究。2,3 致突变性:在 Ames 试验中无致突变性。Selpercatinib 在哺乳动物体内染色体试验中具有致染色体断裂作用,但在哺乳动物体外染色体试验中无致染色体断裂作用。2,3 生育力:在动物研究中,雄性受试者在暴露量低于人类临床暴露量时表现出睾丸退化、附睾腔内精子减少、剂量依赖性睾丸生殖细胞耗竭和精子细胞滞留。在暴露量约为预期人类临床暴露量的两倍时观察到精子形态的改变。当未成年雄性受试者后来在青春期与未经治疗的雌性交配时,生殖能力也会受到影响。观察到的影响包括:雄性生育力和交配指数降低、着床前和着床后损失增加、可存活胚胎减少。在雌性受试者中,发情周期数减少,可存活胚胎减少,着床后损失增加,暴露程度与人类临床暴露后相似。据报道,暴露程度低于人类临床暴露后,黄体减少或缺失,以及黄体囊肿存在。2,3 Selpercatinib 可能会损害有生育能力的男性和女性的生育能力。2 怀孕:在动物研究中,selpercatinib 具有致畸性并导致胚胎胎儿毒性。在类似或更高的暴露水平下,观察到结构畸形、早期吸收、胎儿体重下降、着床后损失增加和存活胎儿减少。比人类临床暴露后观察到的要多。2 建议在开始治疗前对有生育能力的女性患者进行妊娠测试。建议在治疗期间以及最后一次服用 selpercatinib 后至少 2 周内对有生育能力的女性患者和有生育能力的女性伴侣的男性患者进行避孕。2 由于可能分泌到乳汁中,因此不建议母乳喂养。女性在治疗期间以及最后一次服用 selpercatinib 后 2 周内不应母乳喂养。2
在过去的几年中,机器学习模型的大小和复杂性显着增加,尤其是在生成AI(例如大型语言模型)领域。这些模型需要大量的数据和计算能力进行培训,以至于无法通过删除或更改的可疑数据“从头开始”来研究“从头开始”的模型来实际解决培训数据(例如受保护或私人内容)的关注。此外,尽管有很大的效果和控件致力于确保培训语料库进行适当的策划和组成,但纯粹的音量会导致手动检查每个基于培训语料库的基准。一种潜在的训练语料库数据缺陷的方法是模型差异,我们通常意味着消除或减少不当使用的数据不当,而且还要减少对ML模型任何组件的不当数据的影响。模型差异技术可用于解决广泛的问题,例如降低偏见或毒性,增加忠诚度并确保负责使用知识产权。在本文中,我们调查了模型散布方法的陆地景观,并介绍了适用于现代ML系统的分类学分类法。特别是,我们以不需要从头开始的方式调查了受过训练的模型的“消除数据效应”的各种含义。
4 阿肯色州电力合作社、Arkansas Valley 电力合作社、Ashley- Chicot 电力合作社、C & L 电力合作社、Carroll 电力合作社、Clay 县电力合作社、Craighead 电力合作社、Entergy Arka n sas, LLC、Farmers 电力合作社、First 电力合作社、Mississippi 县电力合作社、北阿肯色州电力合作社、俄克拉荷马州天然气电力公司、Ouachita 电力合作社、Ozarks 电力合作社、Pet it、Jean 电力合作社、Rich Mo untain 电力合作社、 Inc.、南中阿肯色电力合作社、Inc.、西南阿肯色电力合作社、西南电力公司、帝国区电力公司、伍德拉夫电力合作社。
我们提出了 MatSci-NLP,一种用于评估自然语言处理 (NLP) 模型在材料科学文本上的性能的自然语言基准。我们根据公开的材料科学文本数据构建基准,涵盖七种不同的 NLP 任务,包括命名实体识别和关系分类等传统 NLP 任务,以及特定于材料科学的 NLP 任务,例如与创建材料合成程序有关的合成动作检索。我们研究了在 MatSci-NLP 上在不同科学文本语料库上预训练的各种基于 BERT 的模型,以了解预训练策略对理解材料科学文本的影响。鉴于材料科学领域高质量注释数据的稀缺,我们使用有限的训练数据进行微调实验,以促进在 MatSci-NLP 任务中的推广。我们在这种低资源训练环境中进行的实验表明,在科学文本上预训练的语言模型比在一般文本上训练的 BERT 表现更好。Mat-BERT 是一种专门针对材料科学期刊进行预训练的模型,通常在大多数任务中表现最佳。此外,我们提出了一种用于 MatSci-NLP 多任务学习的统一文本到模式,并将其性能与传统微调方法进行了比较。在对不同训练方法的分析中,我们发现我们提出的受问答启发的文本到模式方法始终优于单任务和多任务 NLP 微调方法。代码和数据集是公开可用的 1 。
