摘要 :WordTune 的数字写作助手是人工智能生成的可在线访问的数字工具之一。本研究旨在确定 Word Tune 对学生学术写作的影响。本研究是具有准实验研究设计的实验研究。印度尼西亚东南苏拉威西岛的一所私立大学有 60 名参与者。他们参与并被有目的地选为研究样本。然后他们被分成两组,即实验组和对照组。每组由 30 名接受不同治疗的参与者组成,持续七次会议。数据是通过写作测试和问卷收集的。因此,两组的参与者都进行了前测和后测,并在研究结束时填写了问卷。研究结果表明,WordTune 数字写作显着影响学生的学术写作(Sig.00)或 p<.005。另一项研究发现,学生使用词调作为特征(即释义/重写、正式、缩短和扩展)的支持有助于他们提高学术写作成绩,特别是在一般文本模式、句子结构和语言选择方面。这项研究建议讲师可以使用词调来向学习者教授学术写作。此外,这项研究还建议进一步研究调查,以获得关于词调和学术写作的更全面的结果。
摘要 作家可以使用许多数字工具来帮助他们创作文本。在某些情况下,这些工具已经存在很长时间了,例如文字处理软件上提供的拼写检查器和基本语法检查器。如今,新的和越来越先进的工具正在使用中,而它们的使用后果尚未完全了解,特别是在语言课堂中。随着 ChatGPT 等人工智能工具的发布,公众对此类工具的兴趣达到了新的水平。除此之外,辅助写作技术的发展速度可能超过机构学术诚信政策和使用指南的制定速度。这导致教育工作者、学生和管理人员对此类工具及其用途存在灰色地带、困惑和缺乏认识。这篇概念性文章旨在根据研究文献和作者在课堂上的个人经验,系统地回顾和分类这些工具。从这一归纳分析中,除了 ChatGPT 和大型语言模型 (LLM) 驱动的文本创建工具之外,还描述了三类数字写作工具。这些是机器翻译 (MT)、数字写作助手 (DWA) 和自动释义工具 (APT)。本文的主要贡献是开发了这三个类别,它们可以为制定全面的教学方法和学术诚信政策奠定基础,这些政策关注的工具范围比单纯的 ChatGPT 和 LLM 更广泛。
生成式人工智能 (GAI) 是指一类从大量数据中学习以创建各种形式的新内容的算法,包括文本、图像、视频、音频和代码 [1] 。GAI 模型因其处理复杂事实查询和执行一系列任务的能力而备受关注,例如撰写论文、创作诗歌、进行文献综述以及翻译、总结、释义或扩展和调整文本以适应不同的语境或观点 [2-5] 。这些模型的性能在很大程度上取决于问题的性质、查询类型以及算法训练数据的质量和相关性 [6] 。GAI 正在从监督学习过渡到自监督学习,后者完全依赖于原始文本数据而无需人工标记,从而使其能够利用大量公开可用的数据 [7] 。聊天生成预训练 Transformer (ChatGPT,OpenAI LLP,美国加利福尼亚州旧金山) 于 2022 年 11 月 30 日推出。它是一个高度通用的、基于 Transformer 的、非领域特定的大型语言模型 (LLM),在大量文本数据上进行训练,这些数据量约为 45 TB 的数据或约一百万英尺的书架空间。ChatGPT 可以生成有意义、可信且新颖的词序列,这是模型从未遇到过的 [8]。
已经发现几种流行的基于 Transformer 的语言模型可成功用于文本驱动的大脑编码。然而,现有文献仅利用预训练的文本 Transformer 模型,尚未探索针对特定任务学习到的 Transformer 表示的有效性。在这项工作中,我们探索从十种流行的自然语言处理任务(两种句法和八个语义)学习到的表示中进行迁移学习,以预测来自两个不同数据集的大脑反应:Pereira(阅读段落中句子的受试者)和 Narratives(听口述故事的受试者)。基于任务特征的编码模型用于预测整个大脑不同区域的活动。共指消解、NER 和浅层语法分析的特征可以解释阅读活动的更大差异。另一方面,对于听力活动,诸如释义生成、总结和自然语言推理等任务表现出更好的编码性能。针对所有 10 个任务表征的实验提供了以下认知见解:(i)语言左半球比语言右半球具有更高的预测大脑活动,(ii)后内侧皮质、颞顶枕交界处、背额叶比早期听觉和听觉联想皮质具有更高的相关性,(iii)句法和语义任务在阅读和听力刺激方面分别显示出跨大脑区域的良好预测性能。
摘要 - LARGE语言模型(LLM)由于能够使用简单的自然语言提示执行临时自然语言处理(NLP)任务,因此获得了广泛的普及。呼吁LLM的一部分是他们对公众的可接近性,包括NLP技术专长的人。但是,提示在语言结构,上下文和其他语义方面可能会有很大的不同,并且修改其中一个或多个方面可能会导致任务绩效的显着差异。非专家用户可能会发现确定提高提示所需的更改是一项挑战,尤其是当他们缺乏特定领域的知识和适当的反馈时。为了应对这一挑战,我们提出了p rompt iD,一个视觉分析系统,旨在通过探索,扰动,测试和迭代进行交互,完善和测试提示。p rompt a ID使用协调的可视化效果,使用户可以通过三种策略改进提示:关键字扰动,释义扰动以及获得最佳的context中文字中的最佳示例。p rompt a ID是通过涉及NLP专家的预先研究设计的,并通过强大的混合方法用户研究进行了评估。我们的调查结果表明,P ROMPT I ID可以帮助用户在认知开销较少的情况下迭代提示,并在建议的帮助下产生多样的提示,并分析生成的提示的性能,同时超过现有的最新提示提示性能的互动。
引言本手册是为北卡罗来纳州EMS批准的教育计划的计划协调员/董事创建的。本手册中包含的最低标准将协助计划开发,实施,基础设施需求以及向当前和未来EMS专业人员提供EMS教育。对NCOEMS批准的教育计划的日常管理的责任属于主动和有效的NCOEMS教育计划中列出的EMS计划协调员/董事。EMS计划协调员/董事是NCOEMS教育部分的第一线联系人,将负责确保遵守所有最低标准或要求。在机构在计划,开发和实施NCOEMS批准的教育计划的计划,开发和实施过程中,该机构将额外的责任分配给EMS计划协调员/董事,应指定EMS教育的资格和合格助手,以协助EMS计划协调员/主任在批准的课程中。本手册中包含的许多材料是特定10A NCAC 13P要求的释义,并撰写了为您提供EMS计划协调员/主任,这些指导旨在成功提供EMS教育计划。不认为本手册中包含EMS教育计划所需的所有内容。应出现问题,请联系您适当的区域教育专家。EMS计划协调员/董事必须意识到,该手册是通过引用采用的,必须在提供课程时完全遵循,因为在行政法规中涵盖了所有“最低”要求是不切实际的。
生成式人工智能的最新进展表明,跨互联网等平台的自主代理和人类之间大规模交互的潜力。虽然这种互动可以促进富有成效的合作,但人工智能代理规避安全监督的能力引发了严重的多代理安全问题,特别是以无意的信息共享或不良协调的形式出现。在我们的工作中,我们建立了秘密勾结的子领域,这是多代理欺骗的一种形式,其中两个或多个代理使用隐写术来隐藏他们互动的真实性质,无论是交流还是其他方式,以避免被监督。我们为进行隐写术通信的人工智能代理提出了一个正式的威胁模型,并得出了关于大型语言模型 (LLM) 进行秘密勾结的能力和动机以及威胁缓解措施的局限性的严格理论见解。我们通过实证评估来补充我们的研究结果,这些评估展示了前沿单智能体和多智能体 LLM 设置中隐写能力的提升,并研究了可能出现勾结的潜在场景,揭示了监控、释义和参数优化等对策的局限性。我们的工作首次形式化并调查了前沿基础模型之间的秘密勾结,将其确定为 AI 安全的一个关键领域,并概述了一项全面的研究议程,以减轻未来生成 AI 系统之间勾结的风险。
在本教程中,我们将重点介绍文本到文本生成,这是一类自然语言生成 (NLG) 任务,它将一段文本作为输入,然后根据某些特定标准(例如可读性或语言风格)生成改进的修订版本,同时在很大程度上保留文本的原始含义和长度。这包括许多有用的应用,例如文本简化、释义生成、风格转换等。与文本摘要和开放式文本完成(例如故事)相比,我们在本教程中讨论的文本到文本生成任务在语义一致性和目标语言风格方面受到更多限制。这种控制水平使这些任务成为研究模型生成语义充分且风格适当的文本的能力的理想试验台。此外,从技术角度来看,这些任务很有趣,因为它们需要词汇和句法转换、风格控制和对事实知识的遵守的复杂组合——所有这些都是同时进行的。本教程特别关注文本简化和修订,旨在从数据、模型、人机协作和评估四个主要方面概述最先进的自然语言生成研究,并讨论和展示一些重大的最新进展:(1)使用非倒退方法;(2)从微调到使用大型语言模型提示的转变;(3)开发新的可学习指标和细粒度人工评估框架;(4)非英语语言的研究和数据集不断增加;(5)HCI+NLP+可访问性跨学科研究的兴起,以创建现实世界的写作助手系统。
包括 ChatGPT、Gemini 和 Claude 在内的生成式 AI 模型在加强 K-12 教育方面发挥着越来越重要的作用,为各个学科提供支持。这些模型为人文学科提示提供示例答案,解决数学方程式并集思广益提出新颖的想法。尽管它们具有教育价值,但人们担心它们可能会误导学生在完成作业、评估或研究论文时直接从 AI 中抄袭答案。当前的检测器(例如 GPT-Zero)难以识别经过修改的 AI 生成的文本,并且对于以英语为第二语言的学习者而言,其可靠性会降低。本研究调查了在高风险写作评估中使用生成式 AI 来检测学术作弊行为。经典机器学习模型(包括逻辑回归、XGBoost 和支持向量机)用于区分 AI 生成的论文和学生撰写的论文。此外,我们还研究了包括 BERT、RoBERTa 和 Electra 在内的大型语言模型,并将其与传统机器学习模型进行了比较。分析重点关注 ASAP Kaggle 竞赛中的提示 1。为了评估各种检测方法和生成式 AI 模型的有效性,我们包括 ChatGPT、Claude 和 Gemini 的基本版本、专业版本和最新版本。此外,我们还研究了 GPT-Humanizer 和 QuillBot 等释义工具的影响,并介绍了一种使用同义词信息检测人性化 AI 文本的新方法。此外,我们还探讨了数据集大小与模型性能之间的关系,以便为未来研究中的数据收集提供参考。
大学关于使用 ChatGPT 等人工智能 (AI) 工具进行评估的声明。过去几个月,ChatGPT、Google Bard 等在线人工智能 (AI) 工具和 Quillbot 等释义工具的开发一直是媒体关注的焦点。大学认识到,ChatGPT 等生成式人工智能工具为教学、学习和评估实践提供了机遇和挑战。我们正在更新有关在评估中使用人工智能的政策和程序,因为使用 ChatGPT 等工具创建评估内容可能会破坏学术诚信。我们希望提醒学生,我们目前的《涉嫌学术不端行为案件调查程序》明确规定,学生有责任确保他们提交的评估作业完全是他们自己的。根据《程序》,不是学生自己作品的评估,包括未经授权使用 ChatGPT 等人工智能程序制作的评估,将构成学术不端行为。这可能意味着提交此类作业的学生可能会受到严厉处罚,例如扣分、失去重新评估的权利或退学。在极少数科目中,某些评估可能允许使用人工智能工具,例如计算机,您的模块导师会提前向您明确告知这一点。除非是这种情况,否则您应该假设不允许使用任何人工智能工具来创建评估内容。您提交的评估作业是您自己的作业,这一点非常重要;目的是评估您的理解和学习。对您用作参考的来源和工具保持透明也很重要。如果出于任何原因您不确定是否使用特定的来源或工具,请与您的模块导师或课程负责人交谈。我们将继续审查与人工智能相关的程序和政策以及这项技术的发展。