背景:量子计算是一种快速发展的新编程范式,它为算法的设计和实现带来了重大变化。理解量子算法需要物理和数学知识,这对软件开发人员来说可能具有挑战性。目的:在这项工作中,我们首次分析了 LLM 如何支持开发人员理解量子代码。方法:我们使用两种不同的人工编写提示风格,对七种最先进的量子算法,通过实证分析和比较三种广泛采用的 LLM(Gpt3.5、Llama2 和 Tinyllama)提供的解释质量。我们还分析了 LLM 解释在多轮中的一致性以及 LLM 如何改进现有的量子算法描述。结果:Llama2 从头开始提供最高质量的解释,而 Gpt3.5 成为最适合改进现有解释的 LLM。此外,我们表明,在提示中添加少量上下文可以显着提高解释的质量。最后,我们观察了解释在多轮中在质量和句法上如何保持一致。结论:这项工作突出了有希望的结果,并为未来在量子代码解释的 LLM 领域的研究提出了挑战。未来的工作包括通过快速优化和解析量子代码解释来改进方法,以及对解释的质量进行系统评估。
本研究调查了大脑优势对沙特阿拉伯大学英语学习者学业成绩的影响。研究采用问卷作为主要数据收集方法,涉及 147 名参与者。大脑优势是指对分析和顺序处理信息(左脑优势)或整体和直观处理信息(右脑优势)的固有偏好,该研究针对英语学习者的学习方法和学业成绩进行了研究。问卷评估了参与者的大脑优势、学习策略和学业成绩。大脑优势通过一系列问题确定,而语言学习实践则通过特定调查进行评估。数据分析显示,大脑优势与学业成绩之间存在显著相关性,左脑优势的参与者比右脑优势的参与者取得更高的成绩,英语水平也更好。研究结果表明,与左脑优势相关的系统性和逻辑性思维可能有利于语言习得,因为它强调对句法和词汇的系统理解。因此,有效的英语语言培训应结合分析性和整体性学习活动,以满足左脑和右脑主导学习者的需求。本研究提供了有关大脑主导性对英语语言习得的影响的宝贵见解,并强调了适应不同思维方式的定制教育的重要性。
尚不清楚大型语言模型(LLM)是否在语言使用中发展了类似人类的特征。我们将Chatgpt和Vicuna进行了12个预先注册的心理语言实验,从声音到对话。Chatgpt和Vicuna分别在12个实验中分别复制了人类的语言使用模式。模型将不熟悉的单词与不同的含义相关联,取决于其形式,继续访问最近遇到模棱两可的单词的含义,重复使用的最近的句子结构,将因果关系归因于动词语义的函数,并访问了不同的含义,并根据对话者的身份访问了不同的含义并检索了不同的单词。此外,chatgpt而不是维库纳(Vicuna),非文字解释的令人难以置信的句子可能因噪音而损坏,提出合理的推论以及句子中被忽视的语义谬误。最后,与人类不同,这两种模型都不喜欢使用较短的单词来传达信息较少的内容,也没有使用上下文来解决句法歧义。我们讨论了这些融合和差异如何由变压器体系结构产生。总的来说,这些实验表明,在人类语言处理的许多方面,LLM(和Vicuna等LLM)在人类语言处理的许多方面都像人类一样。
摘要本教程的主要目标是促进世界上不同语言的发展语言障碍(DLD)的研究。这些努力的累积效应可能是一系列对语言学习困难以及一般语言获取的更具吸引力和全面的理论。对儿童和当地社会的好处也可能会产生。在介绍了针对LAN Guage障碍儿童的跨语言研究中涉及的一些初步考虑之后,我们提供了可能提出的问题类型的示例。这些示例由我们自己的合作工作研究为孩子们提供跨广东话,芬兰语,德语,希伯来语,匈牙利语,意大利语,西班牙语,瑞典语和土耳其语以及英语的语言。还包括调查人员对其他语言的工作的示例。我们讨论了DLD儿童及其年龄和年龄较小的同龄人的语言内部比较以及DLD儿童的语言比较。示例涉及形态学,韵律,句法运动,动词范式复杂性和潜在机制等问题。这些示例(与当前的理论和假设都绑在一起)必然仅限于已经受到调查关注的语言的类型。通过从更广泛的学科中参与儿童语言学者,我们可以扩大所研究的语言的数量和类型,因此,大大增强了我们对童年语言障碍的理解。
统计学习是指从环境中提取规律的隐性机制。许多研究已经调查了统计学习的神经基础。然而,大脑如何根据先前(隐性)学习对听觉规律的违反做出反应需要进一步研究。在这里,我们使用功能性磁共振成像 (fMRI) 来研究基于学习到的局部依赖性处理不规则事件的神经相关性。呈现了一连串连续的声音三连音。受试者不知道,三连音要么是 (a) 标准三连音,即以高概率声音结尾的三连音,要么是 (b) 统计偏差三连音,即以低概率声音结尾的三连音。参与者 (n = 33) 在扫描仪外经历了学习阶段,然后进行了 fMRI 会话。统计偏差的处理激活了一组区域,包括双侧颞上回、右侧深额岛叶(包括外侧眶额皮质)和右侧运动前皮质。我们的结果表明,统计学习范式中局部依赖性的违反不仅会涉及感官过程,而且让人联想到音乐和语言中局部句法结构处理过程中的激活模式,反映了统计学习背景下预测编码所需的在线适应。
语境会影响理解者在语言处理过程中的期望,信息论惊奇通常被用作衡量认知处理努力的指标。然而,先前使用惊奇的研究只考虑了句内语境,使用 n-gram、神经语言模型或句法结构作为条件语境。在本文中,我们扩展了惊奇方法以使用更广泛的主题语境,通过分析自然聆听过程中收集的 fMRI 时间过程来研究局部和主题语境对处理的影响。从 ngram 和 LSTM 语言模型计算出的词汇惊奇可用于捕捉局部语境的影响;为了捕捉更广泛语境的影响,我们引入了一个基于主题模型的新指标——主题惊奇。我们确定了词汇惊奇和主题惊奇的不同神经激活模式。这些不同的神经解剖学相关性表明,句子处理过程中的局部和广泛的语境线索会调动不同的大脑区域,并且语言网络的这些区域在功能上有助于在理解过程中处理不同维度的语境信息。更广泛地说,我们的方法补充了越来越多的使用计算语言学方法的文献,以操作和测试有关句子处理中的神经认知机制的假设。
出版物转介出在《媒体Hwang》,H。和Kim,K。词汇频率在预测过程中的影响:较高的频率提高L1速度并促进L2预测。语言学习。2025 Kim,H。,&Hwang,H。学习环境和熟练程度:L2对常规和非常规态度的敏感性。语言和认知。https://doi.org/10.1017/langcog.2024.65 2025 Hwang,H。从属化的成熟分析仪,下属形式和有限性对第二语言发展的影响:基于NLP的分析:基于NLP的分析。书面交流,42(1),193–222。https://doi.org/10.1177/07410883241286900 2024 Hwang,H。,&Kim,H。Kim,H。Korean语法复杂性分析仪(KOSCA):一种NLP工具,用于分析第二语言生产中语法复杂性的分析。语言测试,41(3),506–529。https://doi.org/10.1177/02655322222222222596 2024 HWANG,H。WANNDY在第一语言获取,儿童第二语言获取和成人第二语言获取中的收缩。双语:语言和认知,27(3),322–333。https://doi.org/10.1017/s1366728923000640 2024 Hwang,H。韩文中的形态多样性的发展:使用韩国形态丰富性分析仪1.0的NLP分析。系统,121,103260。https://doi.org/10.1016/j.system.2024.103260 2024 Kim,H。,H。,&Hwang,H。国际应用语言学杂志,34(3),1108–1122。语言研究,59,237–252。https://doi.org/10.1111/ijal.12548 2023 Hwang,h。 伪VP-ellipsis的第二语言获取和在韩语中的差距。 https://doi.org/10.30961/lr.2023.59.3.237 2023 Kim,H.,Kim。 K.,Jo,K.,Hwang,H。对儿童第二语言处理中的句法依赖性形成的敏感性:韩语数字量词的研究。 语言和认知,15(4),763–785。 https://doi.org/10.1017/langcog.2023.16 2023 Hwang,H。在儿童的第二语言语音感知中做立场和词汇知识? 语言,289,103527。https://doi.org/10.1016/j.lingua.2023.103527 2023 Hwang,H。,H。,&Kim,H。自动分析结构多样性作为EFL学生写作能力的预测者。 应用语言学,44(1),127–147。 https://doi.org/10.1093/applin/amac046 2022 Kim,H。,&Hwang,H。评估年轻EFL学习者中的动词 - 构建整合:书面和口语生产分析。 语言学习,72(2),497–533。 http://doi.org/10.1111/lang.12480https://doi.org/10.1111/ijal.12548 2023 Hwang,h。伪VP-ellipsis的第二语言获取和在韩语中的差距。https://doi.org/10.30961/lr.2023.59.3.237 2023 Kim,H.,Kim。 K.,Jo,K.,Hwang,H。对儿童第二语言处理中的句法依赖性形成的敏感性:韩语数字量词的研究。 语言和认知,15(4),763–785。 https://doi.org/10.1017/langcog.2023.16 2023 Hwang,H。在儿童的第二语言语音感知中做立场和词汇知识? 语言,289,103527。https://doi.org/10.1016/j.lingua.2023.103527 2023 Hwang,H。,H。,&Kim,H。自动分析结构多样性作为EFL学生写作能力的预测者。 应用语言学,44(1),127–147。 https://doi.org/10.1093/applin/amac046 2022 Kim,H。,&Hwang,H。评估年轻EFL学习者中的动词 - 构建整合:书面和口语生产分析。 语言学习,72(2),497–533。 http://doi.org/10.1111/lang.12480https://doi.org/10.30961/lr.2023.59.3.237 2023 Kim,H.,Kim。K.,Jo,K.,Hwang,H。对儿童第二语言处理中的句法依赖性形成的敏感性:韩语数字量词的研究。语言和认知,15(4),763–785。https://doi.org/10.1017/langcog.2023.16 2023 Hwang,H。在儿童的第二语言语音感知中做立场和词汇知识?语言,289,103527。https://doi.org/10.1016/j.lingua.2023.103527 2023 Hwang,H。,H。,&Kim,H。自动分析结构多样性作为EFL学生写作能力的预测者。应用语言学,44(1),127–147。https://doi.org/10.1093/applin/amac046 2022 Kim,H。,&Hwang,H。评估年轻EFL学习者中的动词 - 构建整合:书面和口语生产分析。语言学习,72(2),497–533。http://doi.org/10.1111/lang.12480
人类的语言能力允许任何特定的说话者“无限地使用有限的手段” [Chomsky, 2006]。这就是说,所有可能的句子的集合是无限的,而组成它们的单词的集合是有限的。然而,歧义(即对一个表达式有多种解释)在自然语言中随处可见 [Wasow et al. , 2005]。目前尚不清楚自然语言中为何存在歧义。鉴于它会阻碍交流,人们可能认为语言会进化来避免它,然而这并没有被观察到 [Wasow et al. , 2005]。一种解释是,将一个词映射到多个含义可以节省记忆。另一种说法认为,歧义是人类偏向较短词素的结果 [Wasow et al. , 2005]。还有一种解释认为,歧义是语言进化过程中效率优化(最小努力原则)的产物。根据这种观点,歧义是语言进化到最小努力的代价 [Sol´e and Seoane, 2015]。在本文中,我们不会试图解释歧义的根本原因,而是展示它如何给人工智能系统带来问题。首先,我们将确定语音、句法和语义层面上出现的歧义类型,并注意现代自然语言处理 (NLP) 系统如何消除歧义输入。最后,我们将考虑更先进的人工智能如何利用歧义,以及不法分子如何利用此类系统来达到他们的目的。
语音理解需要人类大脑将声波转换为意义。为此,大脑会生成一个特征层次结构,将感官输入转换为越来越抽象的语言属性。然而,人们对这些分层特征的生成和持续协调方式知之甚少。在这里,我们提出每个语言特征都在大脑中动态表示,以同时表示连续事件。为了检验这个“分层动态编码”(HDC)假设,我们使用时间分辨的大脑活动解码来跟踪语言特征综合层次结构的构建、维护和整合,涵盖声学、语音、亚词汇、词汇、句法和语义表示。为此,我们为 21 名参与者录制了脑磁图 (MEG),让他们听了两个小时的短篇故事。我们的分析揭示了三个主要发现。首先,大脑逐步表征并同时维持连续的特征。其次,这些表征的持续时间取决于它们在语言层次中的级别。第三,每个表征都由动态神经代码维护,该代码以与其相应的语言水平相称的速度发展。这种 HDC 可以随时保持信息,同时限制连续特征之间的干扰。总体而言,HDC 揭示了人类大脑在自然语音理解过程中如何不断构建和维持语言层次,从而将语言理论锚定到其生物学实现上。
随着自主驾驶系统(ADS)变得越来越复杂,对日常生活不可或缺,因此相应地增长了这些系统中软件错误的性质和缓解性质的重要性。应对自动驾驶系统中软件维护的挑战(例如,处理实时系统决策并确保安全至关重要的可靠性)至关重要,这是至关重要的,这是由于实时决策要求的独特组合和广告中的高赌注。该领域中自动化工具的潜力是有希望的,但是我们对所面临的挑战以及手动调试和修复此类系统所面临的策略的理解仍然存在差距。在本文中,我们提出了一项经验研究,该研究调查了广告中的错误固定模式,以提高可靠性和安全性。我们已经分析了两个主要的自动驾驶项目的提交历史和错误报告,即阿波罗和自动驾驶,从1,331个错误修复中,研究了错误症状,根本原因和错误框架模式。我们的研究揭示了几种主要的错误框架模式,包括与路径计划,数据流和配置管理相关的模式。此外,我们发现错误框架模式的频率分布明显取决于其性质和类型,并且某些类别的错误是经常出现的,并且灭绝更具挑战性。根据我们的发现,我们提出了ADS错误的层次结构和15个句法错误框模式的两个分类法和27个语义错误框架模式,可为错误识别和分辨率提供指导。我们还贡献了1,331个ADS Bug-Fix实例的基准。