摘要 我们生活在一个人工智能快速发展的新时代,现有模型的新版本和越来越强大的版本,甚至是新模型,不断被创造出来。人类和工业界正在越来越多地投资于这些进步。现实生活中有很多例子表明,这些模型被人类用来方便自己或欺骗。学生和学者不再深入研究知识和制造虚假新闻是经常发生的两个主要现象。因此,需要创建一个能够检测和区分人工智能生成的文本和人类编写的文本的分类器。已经采取了几种非常好的方法,但它们必须随着法学硕士的发展而不断发展。今年,CLEF [1] [2] 的 PAN 共享任务阐明了上述需求。为了解决该任务,本文提出了一种 RoBERTa[3] 和 Bi-LSTM 相结合的架构。关键词 RoBERTa、Bi-LSTM、NLP、AI 生成文本检测、作者分析
摘要在本文中,我们探讨了各种深度学习技术来开发机器学习模型,以预测患者的第二次自动评估的肌萎缩性侧面硬化功能评级量表(ALSFRS-R)得分,以预测肌萎缩性侧向硬化功能评级量表(ALSFRS-R)。要执行任务,使用自动编码器和多个插补技术来处理数据集中存在的缺失值。预先处理数据后,使用随机的森林算法进行特征选择,然后开发了4个深神经网络预测模型。使用多层感知器(MLP),Feed Hearver Near Network(FFNN),复发性神经网络(RNN)和Long-Short术语记忆(LSTM)开发了四个预测模型。However, the developed models performed poorly when compared to other models in the global ranking hence, 3 more algorithms (Random Forest, Gabbing Regressor and XGBoost algorithm) were used to improve the performance of the models and the developed XGBoost algorithm outperformed other models developed in this paper as it produces minimal MAE and RMSE values.
视觉艺术有助于表达、交流和联系,但对于视障人士和缺乏资源来了解艺术技术和历史的人来说,视觉艺术仍然难以接触。在这项工作中,我建议开发一种生成式人工智能模型,该模型可以生成对给定艺术品的描述和解释。这样的研究可以使艺术更容易被接受,支持艺术教育,并提高人工智能理解和翻译创意媒体的能力。开发将从一项形成性研究开始,以评估盲人和视力低下人士以及艺术专家的需求和偏好。在形成性研究之后,基本方法是在艺术品及其随附描述的数据库上训练模型,从提取的视觉数据中预测情绪,并生成一个与训练文本数据非常相似并结合情绪分析的段落。然后,将通过 METEOR 等指标对模型进行定量评估,并通过图灵测试在迭代过程中对模型进行定性评估。
- 电子邮件地址:net_david@pbss.hk - 邮寄地址:香港柴湾新厦街338号宝血中学 利益声明 无。致谢 C.H.Y. 的作品。得到中国香港特别行政区研究资助局的支持(项目编号EdUHK GRF 18301119)。
© 作者 2023。开放存取 本文根据知识共享署名 4.0 国际许可协议进行授权,允许以任何媒体或格式使用、共享、改编、分发和复制,只要您给予原作者和来源适当的信任,提供知识共享许可协议的链接,并指明是否做了更改。 本文中的图片或其他第三方资料包含在文章的知识共享许可协议中,除非在资料的致谢中另有说明。 如果资料未包含在文章的知识共享许可协议中,且您的预期用途不被法定规定允许或超出了允许的用途,则需要直接从版权所有者处获得许可。 要查看此许可证的副本,请访问 http://creativecommons.org/licenses/by/4.0/。知识共享公共领域贡献豁免(http://creativecommons.org/publicdo‑main/zero/1.0/)适用于本文中提供的数据,除非数据来源中另有说明。
摘要:由于 ChatGPT 已成为一种主要的 AIGC 模型,可在广泛的应用(包括软件开发和维护)中提供高质量的响应,因此它吸引了许多人的兴趣。ChatGPT 前景广阔,但滥用可能会引发严重问题,尤其是在教育和公共安全领域。目前有几种 AIGC 检测器可用,并且都已在真实文本上进行了测试。但是,还需要进行更多研究才能了解它们对多域 ChatGPT 材料的有效性。本研究旨在通过创建一个多域数据集来测试大学和其他研究机构使用的用于检测人工生成信息的最先进的 API 和工具,从而满足这一需求。本研究创建了一个由文章、摘要、故事、新闻和产品评论组成的大型数据集。第二步是使用新创建的数据集对六种工具进行测试。包括“GPTkit”、“GPTZero”、“Originality”、“Sapling”、“Writer”和“Zylalab”在内的六种不同的人工智能文本识别系统准确率在55.29%至97.0%之间。虽然所有工具在评估中都表现良好,但Originality在各方面都表现得尤为出色。
大型语言模型 (LLM) 越来越多地用于生成各种用例中的文本,包括新闻文章。鉴于这些 LLM 可能用于大规模生成虚假信息的潜在恶意性质,为此类 AI 生成的文本构建有效的检测器非常重要。鉴于新 LLM 开发的激增,获取监督检测器的标记训练数据是一个瓶颈。但是,可能有大量未标记的文本数据可用,而没有关于它来自哪个生成器的信息。在这项工作中,我们解决了这个数据问题,即检测 AI 生成的新闻文本,并将问题构建为无监督领域自适应任务。这里的域是不同的文本生成器,即LLM,我们假设我们只能访问标记的源数据和未标记的目标数据。我们开发了一个对比域自适应框架,称为 ConDA,它将标准域自适应技术与对比学习的表示能力相结合,以学习对最终无监督检测任务有效的域不变表示。我们的实验证明了我们框架的有效性,平均性能提升了 31 .与最佳表现基线相比提高了 7%,在 0 .全监督检测器的 8% 范围内。我们所有的代码和数据都可以在这里找到。
任务:就生成文本 AI 的使用写一份个人立场声明。您的声明应为一页,单倍行距。您不需要重新讨论生成文本或艺术平台的机制,但您需要思考人们如何看待这项技术的使用(一般来说,同学、学术界、教授、您自己等——具体说明您选择谈论哪些群体),以及您自己使用生成 AI 平台的(当前)参数。您的声明后面应附上一份特别有助于您思考的资料来源书目,采用 MLA 格式,特别是如果其中包括您在班级一起阅读的文章之外找到的文章。
随着人工智能生成的文本越来越像人类书写的内容,检测机器生成文本的能力变得至关重要。为了应对这一挑战,我们提出了 GPTWatermark,这是一种强大而高质量的解决方案,旨在确定一段文本是否源自特定模型。我们的方法扩展了现有的水印策略,并采用固定组设计来增强对编辑和释义攻击的鲁棒性。我们表明,我们的带水印的语言模型在生成质量、检测正确性和针对规避攻击的安全性方面享有强有力的可证明保证。在各种大型语言模型 (LLM) 和不同数据集上的实验结果表明,我们的方法实现了卓越的检测准确率和可比的复杂度生成质量,从而促进了 LLM 的负责任使用。代码可在 https://github. com/XuandongZhao/GPTWatermark 获得。
