摘要:正如欧盟工业5.0研究与创新行动中所述,在信息系统中考虑人为因素是未来数字化工作的关键。尤其是在面向流程的信息系统的设计阶段,人为因素包括赋能领域专家创建流程模型,从而降低流程建模的门槛并提高建模速度。在本研究中,我们研究了生成式人工智能方法如何支持领域专家基于文本流程描述与聊天机器人交互创建流程模型。我们探索了使用受Markdown启发的语言创建具有即时可视化表示的流程模型所需的输入信息量,并扩展了现有的评估生成模型的方法,重点关注其完整性和正确性。总而言之,评估方法必须考虑模型完整性、正确性、文本流程描述、文本表示和快速工程之间的复杂关系,以支持领域专家。
研究文章是学术话语中最重要的,最重要的流派之一。研究文章的引言部分据报道很难写(Flowerdew,1999; Hsu and Kuo,2009)。学者长期以来已经认识到修辞学在学术写作中的核心作用。对结构的众所周知的分析,即“创建一个探索空间”(CARS)模型(Swales,1990,2004)是Acameciscoress类型研究的事实上的标准,以及Hyland(2005,2018)的元音乐模型。Swales(1990)的汽车模型观察了学术研究文章中发现的共同模式,其中包括三个修辞动作(可以看作是任何旨在实现特定功能的文本功能的任何textual单位,通常是一个或多个句子)。每个举动都可以分解为更细的步骤,而某些步骤是“可选的”,并且有些“强制性”或进行了说明。在教学环境中,这些动作和步骤可用于指导新手作者在上下文,目的,目标,文献
摘要 许多视觉生成人工智能 (AI) 模型使用文本“提示”作为输入来指导生成图像的开发。将文本转换为图像利用了语用学和语义学,这会对输出产生影响。为了促进更精确的提示,我们提出了文本相似性的三维向量空间,它使用文本表示、听觉表示和含义相似性作为轴。接下来,我们表明两个单词之间含义相似并不一定会导致相应的 AI 生成的这些单词图像之间视觉相似。我们利用八个图像生成器为抽象和具体的同义词、反义词和上义词-下义词对生成图像,并将它们的图像-图像 CLIPScore 与它们对应的文本-文本 CLIPScore 进行比较,从而定量地证明了这一点。在所有模型和关系类型中,文本与文本和图像与图像相似度的平均相似度同义词从 92.8% 下降到 70.1%,反义词从 89% 下降到 58.9%,上义词-下义词对的平均相似度从 85.6% 下降到 68.1%。
文本对图像和图像到文本翻译是在自然语言处理(NLP)和计算机视觉的交集中迅速发展的域。文本对图像生成涉及基于描述性文本输入的图像的综合。此过程利用高级机器学习模型,例如生成对抗网络(GAN)和扩散模型,创建与提供文本相匹配的连贯性和上下文相关的视觉效果。这些模型学习了文本描述和视觉特征之间的复杂关系,从而可以生产从现实的照片到艺术渲染的各种图像。相反,图像到文本翻译的重点是从视觉输入中生成文本描述。此任务利用卷积神经网络(CNN)与复发性神经网络(RNN)或变形金刚结合进行分析和解释图像的技术。目标是提取相关信息,捕获诸如对象,动作和上下文之类的细节,并将其转换为自然语言描述。这两个过程都在各个领域都有重要的应用程序,包括创建内容,视障人士的可访问性以及增强技术中的用户互动。
摘要。本研究的目的是研究一种人工智能方法,以协助建筑师进行概念设计,提供多模式输入(草图和文本信息)。通过不同的文本输入,人工智能方法会生成用户初始草图输入的建筑风格变化作为设计灵感。介绍了一种用于多模式输入系统的新型机器学习方法,并将其与其他方法进行了比较。机器学习方法是通过程序训练和训练数据的内容管理来执行的,以控制从输入生成的设计的保真度并管理其多样性。本文解释了所提出的人工智能方法的框架。此外,还通过各种示例展示了其原型的实现。
本项目使用深度学习技术介绍了用于图像着色和文本对图像生成的Web应用程序。应用程序包括两个主要模块:图像着色,将黑白图像转换为颜色,以及文本到图像生成,该图像基于文本描述创建图像。用于图像着色,预先训练的深度神经网络模型可用于预测灰度图像的色彩信息。该模型是使用OpenCV的DNN模块实现的,并且能够准确恢复颜色为灰度图像。在文本到图像生成模块中,采用稳定的扩散管道来生成文本提示中的图像。本管道利用深度学习技术根据用户提供的文本描述来合成图像。Web应用程序提供了一个用户友好的接口,供用户上传图像以进行着色和输入文本提示以生成图像。处理后,应用程序将有色的图像或生成的图像返回给用户。总体而言,该项目展示了深度学习模型在增强视觉内容创建方面的潜力,并为用户提供了一种实用的应用程序,可以交互探索图像着色和文本驱动的图像生成。
抽象图像着色是计算机视觉中的一个众所周知的问题。但是,由于任务的不良性质,图像着色本质上是具有挑战性的。尽管研究人员已经尝试了几次尝试使着色管道自动化,但由于缺乏调理,这些过程通常会产生不切实际的结果。在这项工作中,我们试图将文本描述与要着色的灰度图像一起集成为辅助条件,以提高着色过程的保真度。据我们所知,这是将文本条件纳入着色管道中的首次尝试之一。为此,已经提出了一个新颖的深网,该网络采用了两个输入(灰度图像和各自的编码文本描述),并尝试预测相关的颜色范围。由于各自的文本描述包含场景中存在的对象的颜色信息,因此文本编码有助于提高预测颜色的整体质量。已使用SSIM,PSNR,LPISP(分别达到0.917,23.27,0.223)评估了所提出的模型。这些定量指标表明,在大多数情况下,提出的方法优于SOTA技术。
摘要本研究介绍了使用双向和自动回归变压器(BART)和向量量化的变分自动编码器(VQ-VAE)的文本条件触觉图形生成模型的开发。该模型利用了潜在空间的修改组织,分为两个独立的组件:文本和图形。该研究通过使用自定义样本扩展培训数据集来解决触觉图形样本有限的挑战,从而增强了模型将文本信息转换为图形表示的能力。提出的方法改善了视障人士的触觉图形创建,从而在合成的触觉图形中提供了增加的可变性,可控性和质量。这一进步增强了包容性教育材料生产过程的技术和经济方面。
这项工作是在OSIP ESA研究的框架中进行的(ESA合同NR。4000133471/20/nl/glc/kk)。基于模型的方法已被证明是有效的,可以在支持工程活动,替代传统基于文档的方法的模型中有效。即使在大多数高级部署中,许多工程文物也是文本式的,要么是因为引入模型的投资回报在此特定情况下过于较低,要么是因为即使出现一致性和正确性问题,也以自然语言表达了信息。最近在基于AI的自然语言处理(NLP)中取得了巨大进展,主要是由聊天机器人和声乐家庭助理用法驱动。提出的想法包括将这些技术旋转到太空工程过程中,研究自然语言处理如何帮助太空工程师进行日常活动。许多工程领域都可以利用这些技术的优势。最明显的是需求管理域,因为大多数要求都是文本型,即使它们具有一定的结构和规则,也通常不会正式建模。使用NLP技术语义信息可以从文本要求中提取,这可能