摘要。近年来,人工intel-ligence生成的内容(AIGC)的迅速增长,随着文本对图像技术的发展,基于AI的图像生成已应用于各种领域。但是,与自然图像相比,AI生成的图像(AIGI)可能具有一些独特的扭曲,因此许多生成的图像对于现实世界应用没有资格。因此,研究AIGIS的主观和客观图像质量评估(IQA)方法很重要且重要。在本文中,为了更好地了解AIGI的人类视觉偏好,建立了AIGC的大规模IQA数据库,该数据库被称为AIGCIQA2023。我们首先使用100个提示,基于6个最先进的文本对图像生成模型生成2000多个图像。基于这些图像,进行了良好的主观实验,以从三个角度评估每个图像的人类视觉偏好,包括质量,真实性和对应关系。最后,基于这个大型数据库,我们进行了一个基准实验,以评估构造的数据库中几个最先进的IQA指标的表现。AIGCIQA2023数据库和基准将发布,以促进未来的研究https://github.com/wangjiarui153/aigciqa2023
摘要:最近,人工智能生成图像质量评估(AIGCIQA)已成为计算机视觉领域的一个新课题,旨在从人类感知的角度评估人工智能生成的图像(AIGI)的质量。与常见的图像质量评估任务(其中图像来自受噪声、模糊和压缩等扭曲的原始图像)不同,在 AIGCIQA 任务中,图像通常由使用文本提示的生成模型生成。过去几年,人们做出了相当大的努力来推进 AIGCIQA。然而,大多数现有的 AIGCIQA 方法直接从单个生成的图像中回归预测分数,忽略了这些图像的文本提示中包含的信息。这种疏忽部分限制了这些 AIG-CIQA 方法的性能。为了解决这个问题,我们提出了一个基于文本图像编码器的回归(TIER)框架。具体而言,我们将生成的图像及其相应的文本提示作为输入,利用文本编码器和图像编码器分别从这些文本提示和生成的图像中提取特征。为了证明我们提出的 TIER 方法的有效性,我们在几个主流 AIGCIQA 数据库上进行了广泛的实验,包括 AGIQA-1K、AGIQA-3K 和 AIGCIQA2023。实验结果表明,我们提出的 TIER 方法在大多数情况下通常比基线表现出更好的性能。代码将在 https://github.com/jiquan123/TIER 上提供。