随着大型语言模型越来越嵌入到不同的面向用户的服务中,因此能够区分人类编写和机器生成的文本以验证新闻文章的真实性,产品评论等。因此,在本文中,我们着手探索是否可以使用一种语言模型来以零声明的方式识别由另一种语言模型所作的机器生成的文本,即使两者具有不同的体系结构并接受了不同的数据培训。我们发现,总体而言,较小的模型是更好的通用机器生成的文本探测器:它们可以更精确地检测出从较小和大型模型生成的文本,而无需任何其他培训/数据。有趣的是,我们发现在相同数据上对检测器和发电机模型进行培训,对检测成功并不重要。ec.forgess Opt-125m模型的AUC为0.90,在DECTIND GPT4代中为0.90,而GPT家族GPTJ-6B的较大模型的AUC为0.65。
Insilico Medicine 是一家开发用于靶标发现和生成化学的 AI 算法的公司,它是首批发布使用深度对抗模型生成新化合物的方法的团队之一(Kadurin、Aliper 等人2017 年)。从那时起,将生成算法与强化学习 (RL) 相结合的基于 DL 的架构已经得到开发并应用于化学和药理学,以生成具有预定义属性的新型分子结构。尤其令人鼓舞的是,活性分子从头设计方面的最新进展已在体外和体内试验中得到验证(Zhavoronkov 等人2019 年)。生成化学领域现在是增长最快的药物发现领域之一(Vanhaelen、Lin 和 Zhavoronkov 2020;Schneider 2018;Merk 等人2018)。Chemistry42™ 平台已在 Insilico Medicine 中被常规且成功地用于推动多个治疗领域的药物发现过程。在以下部分中,我们将描述 Chemistry42™ 平台的主要功能。
摘要 摘要 本论文提出了一种测试安全关键系统的方法。该方法基于行为和故障模型。分析了这两个模型的兼容性,并确定了使它们兼容的必要更改。然后使用转换规则将故障模型转换为与行为模型相同的模型类型。集成规则定义如何组合它们。这种方法会产生一个集成模型,然后可以使用该模型根据各种测试标准生成测试。本论文使用 CEFSM 作为行为模型,使用故障树作为故障模型,说明了这个通用框架。我们将该技术应用于各种应用,例如燃气燃烧器、航空航天发射系统和铁路交叉口控制系统。我们还研究了该方法的可扩展性,并将其效率与集成状态图和故障树进行了比较。分布式进程的构建和分析 (CADP) 已被用作该方法的支持工具,用于从集成模型生成测试用例,并分析集成模型的某些属性,例如死锁和活锁。
控制语言模型生成的文本并定制内容一直是一个长期存在的挑战。现有的为提供控制而提出的提示技术都是针对特定任务的,缺乏通用性;这为非专家用户提供了太多选择,无法找到适合其任务的方法。与这些技术相关的工作(例如编写示例、解释、说明等)进一步限制了非专家用户的采用。在本文中,我们提出了一种简单的提示策略 H ELP ME T HINK,我们鼓励大型语言模型(如 GPT3 和 ChatGPT)通过提出一系列相关问题并利用用户答案来执行任务来帮助非专家用户。我们在各种任务上证明了我们的技术 H ELP ME T HINK 的有效性。具体来说,我们专注于那些对普通人来说很难、需要大量思考才能完成的任务。我们希望我们的工作能够鼓励开发非常规方法来利用大型语言模型的强大功能。
用于自动文本评分(ATS)的生成语言模型(GLM)的抽象当前研究几乎专注于通过应用程序编程接口(API)查询专有模型。然而,这种做法引发了透明度和安全性的问题,这些方法几乎没有效率或可定制性的方式。随着较小的开源型号的最新扩散,可以选择使用配备适度的消费级硬件的计算机来探索GLM,也就是说,对于“ GPU差”。在这项研究中,我们分析了用于ATS的开源,小规模GLM的性能和效率。结果表明,经过微调时,少量的开源GLM的表现要比大量专有GLMS,但没有最先进的性能。除了ATS外,我们还采取了一些小步骤来分析模型通过促使GLM解释其分数来生成反馈的能力。模型生成的反馈表现出了希望,但需要更严格的评估,重点是目标用例。
文本对图像(T2I)生成模型最近成为一种强大的工具,可以创建照片现实的图像并引起多种应用。然而,将T2i模型的有效整合到基本图像分类任务中仍然是一个悬而未决的问题。促进图像锁骨表现的一种普遍的策略是通过使用T2I模型生成的合成图像来增强训练集。在这项研究中,我们仔细检查了当前发电和常规数据增强技术的缺点。我们的分析表明,这些方法努力产生既忠实的(就前景对象)而且针对领域概念的多样化(在背景上下文中)。为了应对这一挑战,我们引入了一种创新的类数据增强方法,称为diff-mix 1,该方法通过在类之间执行图像翻译来丰富数据集。我们的经验结果是,DIFF-MIX在信仰和多样性之间取得了更好的平衡,从而导致各种图像分类场景之间的性能显着提高,包括域名数据集的少量,常规和长尾分类。
邀请申请在加利福尼亚大学欧文分校的语言科学系Xin Xie博士(https://sites.uci.edu/sclab/)的实验室中担任博士后职位。该职位是通过NIH奖项(NIH R01HD111936:识别自适应语音感知的机制)以及罗切斯特大学的Co-Pi Chigusa Kurumada博士(https://kinderlab.bcs.rochester.edu/)与Co-Pi Chigusa Kurumada博士一起资助的。该项目的目标是开发一种自适应语音感知的综合模型,并在人类感知数据上测试模型生成的预测。最初的任命为两年。更新是基于支持和需求的可用性。主要职责包括行为研究设计,数据收集和分析,计算建模和手稿准备。预期的开始时间早在2024年9月,具有灵活性。应用程序材料应通过此链接发送,并将在滚动基础上进行审查。非正式的问题和查询也可以通过电子邮件(xxie14@uci.edu)直接向Xie博士。
社交媒体上的错误信息已成为一个严重问题。用可信度指标(可能是由人工智能模型生成的)标记新闻报道是帮助人们打击错误信息的一种方法。在本文中,我们报告了两项随机实验的结果,旨在了解当人们受到社会影响,以至于他们对新闻的判断受到其他人的影响时,基于人工智能的可信度指标对人们对新闻的看法和参与度的影响。我们发现,基于人工智能的可信度指标的存在会促使人们将他们对新闻真实性的信念与人工智能模型的预测相一致,而不管其正确性如何,从而改变人们检测错误信息的准确性。然而,当存在社会影响时,基于人工智能的可信度指标对影响人们对真实新闻或虚假新闻的参与度的影响有限。最后,结果表明,当存在社会影响力时,基于人工智能的可信度指标对虚假信息的检测和传播的影响要大于没有社会影响力时,因为在人们对新闻形成自己的判断之前,这些指标就已提供给人们。最后,我们提出了更好地利用人工智能来打击虚假信息的建议。
尽管序列到序列模型在许多摘要数据集中都达到了最先进的性能,但是中国社交媒体文本的处理中仍然存在一些问题,例如短句子,缺乏连贯性和准确性。这些问题是由两个因素引起的:基于RNN的序列模型的原理是最大似然估计,这将导致产生长摘要时梯度消失或爆炸;中国社交媒体中的文字漫长而嘈杂,很难产生高质量的摘要。为了解决这些问题,我们应用了序列生成的对抗网络框架。该框架包括生成器和歧视器,其中生成器用于生成摘要,并使用歧视器来评估生成的摘要。软核层层用作连接层,以确保发电机和歧视器的共培训。实验是在大规模的中国社交媒体文本摘要数据集上进行的。句子的长度,胭脂评分和摘要质量的人工得分用于评估生成的摘要。结果表明,我们的模型生成的摘要中的句子更长且准确性更高。
摘要。近年来,人工intel-ligence生成的内容(AIGC)的迅速增长,随着文本对图像技术的发展,基于AI的图像生成已应用于各种领域。但是,与自然图像相比,AI生成的图像(AIGI)可能具有一些独特的扭曲,因此许多生成的图像对于现实世界应用没有资格。因此,研究AIGIS的主观和客观图像质量评估(IQA)方法很重要且重要。在本文中,为了更好地了解AIGI的人类视觉偏好,建立了AIGC的大规模IQA数据库,该数据库被称为AIGCIQA2023。我们首先使用100个提示,基于6个最先进的文本对图像生成模型生成2000多个图像。基于这些图像,进行了良好的主观实验,以从三个角度评估每个图像的人类视觉偏好,包括质量,真实性和对应关系。最后,基于这个大型数据库,我们进行了一个基准实验,以评估构造的数据库中几个最先进的IQA指标的表现。AIGCIQA2023数据库和基准将发布,以促进未来的研究https://github.com/wangjiarui153/aigciqa2023