与重视一致性的常规任务不同,创造力和创新的目标是创造多样化的想法。本文深入探讨了人们对使用人工智能 (AI) 来提高创意生成过程的生产力和质量的日益增长的兴趣。虽然之前的研究发现人工智能创意的平均质量相当高,但之前的研究也指出,基于人工智能的头脑风暴无法创造足够分散的想法,这限制了新颖性和整体最佳创意的质量。我们的研究调查了增加人工智能生成创意分散性的方法。使用 GPT-4,我们探索了不同的提示方法对余弦相似度、独特创意的数量以及创意空间耗尽速度的影响。我们在为大学生开发新产品的领域开展了这项工作,价格低于 50 美元。在此背景下,我们发现 (1) GPT-4 使用各种合理提示生成的想法池的多样性不如人类受试者群体生成的想法 (2) 人工智能生成的想法的多样性可以通过提示工程显着提高 (3) 思路链 (CoT) 提示导致我们评估的所有提示中想法的多样性最高,并且能够接近人类受试者群体所取得的成就。它还能够生成我们研究的任何提示中最多的独特想法。
摘要:大语言模型(LLM)正在重塑机器学习(ML)应用程序开发的景观。能够执行各种任务的多功能LLM的出现降低了人类参与培训和维护ML模型的必要性。尽管有这些进步,但出现了一个关键的问题:这些广义模型是否可以否定对特定于任务模型的需求?本研究通过比较LLM在检测网络钓鱼URL中的有效性与迅速工程技术相对于微调时的有效性来解决这个问题。值得注意的是,我们探讨了用于网络钓鱼URL检测的多种及时工程策略,并将它们应用于两个聊天模型,即GPT-3.5-Turbo和Claude 2。在这种情况下,通过使用1000个样本的测试集,获得的最大结果是92.74%的F1评分。之后,我们对包括GPT-2,BLOOM,BABY LLAMA和DISTILGPT-2在内的一系列基本LLM进行了微调(主要是用于文本生成)的,用于网络钓鱼URL检测。微调方法最终达到了峰值性能,在同一测试集上达到了97.29%的F1分数和99.56%的AUC,从而优于现有的现有先进方法。这些结果表明,尽管LLM通过及时的工程来实现,但可以加快应用程序开发过程,实现不错的表现,但它们不如专用的,特定于任务的LLM。
本文将DSBA提示提示大型语言模型作为可解释的指标共享任务,在其中将系统提交给两个曲目:小和大型摘要轨道。具有高级大语言模型(LLM),例如GPT-4,评估自然语言生成(NLG)的质量已变得越来越重要。传统的基于相似性的会议(例如BLEU和Rouge)已证明与人类评估不一致,并且不适合开放式的一代任务。为了结束这个问题,我们探讨了基于LLM的指标,尤其是杠杆开源LLM的潜在性能。在这项研究中,采用三种方法对广泛的提示和提示技术进行了系统的分析:提示策略,得分聚集和可显而易见。我们的研究着重于配置有效的及时模板,确定NLG质量得分的粒度以及评估中文示例对基于LLM的评估的影响。此外,将三种聚合策略进行比较,以鉴于汇总NLG质量得分的最可靠方法。为了检查解释性,我们制定了一种策略,该策略生成了分数的比例,并分析了开源LLMS产生的解释的特征。广泛的实验提供了有关开源LLM的评估功能的见解,并提出了有效的提示策略。1
本文探讨了开放式生成大语言模型(LLM)用于社会科学中的注释任务。该研究强调了与专有模型相关的挑战,例如有限的可重复性和隐私问题,并提倡采用可以在独立设备上操作的开放式(来源)模型。提供了两个注释任务的示例,推文中的情感分析以及童年期志向论文中的休闲活动的识别。该研究评估了不同提示策略和模型的性能(Neural-Chat-7b-V3-2,Starling-LM-7B-Alpha,OpenChat_3.5,Zephyr-7b-Alpha和Zephyr-7b-7b-Beta)。结果表明需要仔细验证和量身定制的及时工程。该研究强调了开放模型的数据隐私和可重复性的优势。
摘要 在大型语言模型 (LLM) 加速文本生成的时代,使用这些模型进行批判性评估和创建有意义的文本的技能往往缺乏。为了帮助课堂教师解决这个问题,我们推出了 Prompty,这是一种专门的教学工具,旨在促进对 LLM 的批判性和有效性使用。Prompty 服务于多个学习目标:它允许学生批判性地评估由 LLM 生成的文本,帮助他们练习写作,并让他们更深入地了解 LLM 的功能——所有这些都在一个由基本护栏保护的学生友好环境中进行。Prompty 是与高中教师合作设计的,是斯坦福大学为提高 AI 素养而发起的一项计划 CRAFT 的一部分。它在高中英语课上进行了试点测试,作为 AI 写作助手,专注于对机器生成的文本进行批判性评估。这次试验产生了初步证据,证明该工具在实现其教育目标方面的有效性。试点研究的结果表明,像 Prompty 这样易于使用的工具具有巨大的潜力。这些工具可以根据个别教师的目标进行调整。它们可以帮助实现特定学科的学习目标,同时也是高中教授 AI 概念的有效方法。
摘要:人工智能将越来越多地融入艺术实践和创意工作流程中,而即时工程将在这一过程中发挥越来越重要的作用。借助 Midjourney、DALL-E 2 和 Craiyon(以前称为 DALLE-mini)等随时可用的生成式 AI,似乎任何人都可以创作“艺术”,这引发了人们对未来艺术和设计教育必要性的质疑。然而,尽管内容创作的便捷性引起了传统艺术创作界的强烈抗议,但担心广泛采用会取代对艺术和设计原则和基础知识的坚实基础的需求是没有根据的。相反,这些工具应该被视为和采用它们之前的其他照相机械和计算机生成的版本,并利用它们为艺术家提供新的模型来改进他们的工作流程。因此,这里的案例研究建议将 AI 生成艺术用于传统的 3D 设计工作室艺术课程,以确定可能预期的流程变化方式和程度,并确定新技术的潜在好处。因此,学生被提示使用 Craiyon 或 DALLE-2 艺术生成器来收集口头提示,将三个不同的对象组合成一个新版本,然后将其实现为物理三维雕塑和/或模型。
大规模的预训练模型越来越多地通过称为及时学习的新范式来适应下游任务。与微调相比,及时学习不会更新预训练的模型的参数。相反,它仅学习输入扰动,即提示,以添加到下游任务数据中以进行预测。鉴于迅速学习的快速发展,由于使用了巨大的努力和专有数据来创建它,因此不可避免地将良好的及时化成为有价值的资产。这自然提出了一个问题,即提示是否会泄露其培训数据的专有信息。在本文中,我们对通过财产推理和成员推理攻击的视觉提示学习的提示进行了首次全面的隐私评估。我们的经验评估表明,提示很容易受到两种攻击的影响。我们还证明,对手可以以有限的成本进行成功的推理攻击。此外,我们表明,通过放松的对抗性假设,针对提示的会员推理攻击可以成功。我们进一步对防御措施进行了一些初步调查,并观察到我们的方法可以减轻成员的推论,并以体面的公用事业防御权衡取舍,但未能防御财产推理攻击。我们希望我们的结果能够阐明流行的及时学习范式的隐私风险。为了促进这一方向的研究,我们将与社区分享我们的代码和模型。1
为了破译人脑的语言表示基础的算法,先前的工作通过对NLU任务进行了微调的预先调整的预先训练的人工神经网络(ANN)模型对大脑对语言输入的反应。然而,完整的微调通常会更新整个参数空间并扭曲预训练的功能,从而与大脑的强大多任务学习无关。及时调整可以保护预训练的权重,并学习特定于任务的嵌入以适合任务。迅速调整是否会产生代表,可以更好地说明大脑语言表示的比较?如果是这样,什么样的NLU任务会导致预先训练的模型更好地解码人脑中所代表的信息?我们通过比较神经解码中的迅速调整和微调的表示来调查这些问题,这预测了刺激引起的大脑活动的语言刺激。我们发现,在10个NLU任务中,全面的微调都没有明显胜过神经解码的迅速调整,这意味着一种更一致的调谐方法会产生代表性的代表,可以更好地与大脑数据相关。更重要的是,我们确定处理精细概念的任务意味着比其他任务更好地解码大脑激活模式的屈服表示,尤其是句法构成任务。这表明我们的大脑编码代表语言时浅层句法信息更细粒度的概念信息。
摘要:生成式人工智能在教育领域的能力,作为共同创造者,凸显了及时工程在人类与利用自然语言处理 (NLP) 的大型语言模型 (LLM) 之间实现最佳交互方面的关键作用。生成式人工智能的潜力在于响应精心设计的提示,这使得它们对于释放其生成真实内容的能力至关重要。为了优化这一过程,包括教育领域各利益相关者在内的及时工程师必须掌握语言细微差别如何影响生成式人工智能的反应。通过战略性地接近对话式生成式人工智能,明确目的、语气、角色和背景,可以建立基于及时的对话式教学法,实现促进有效教学和学习的沟通和互动。这种方法对于利用生成式人工智能的力量,同时确保有意义且与上下文相关的交互至关重要。关键词:及时工程、人工智能及时设计、与人工智能共同创造、生成式人工智能、教育中的人工智能 (AIEd)。