建筑神经体系结构通常需要在机器学习领域的专业知识,在该领域中,需要对模型建设的过程拥有广泛的知识和复杂性。自动化机器学习(AUTOML)算法,旨在简化此过程,并根据给定数据集自动构建模型体系结构。 本论文研究了针对卷积神经网络(CNNS)Resnet 50,InceptionV 3和VGG 16的Autokeras(一种汽车算法)的性能,以实现面部情感识别的任务(FER)。 CNN由于其专门的空间学习架构而经常用于FER任务。 使用转移学习作为本文的主要方法,杠杆培训了CNN的预训练的成像网架构。 所有预训练的层都被冷冻,并且完全连接的层和分类层例外。 然后,在面部表情情绪的瓦阿赫加数据集上对他们进行培训。 Autokeras在同一数据集上进行了培训,但是它是其自己的预处理和模型构建形式。 结果表明,与三个CNN体系结构相比,汽车的性能出色,返回F 1分数为0。 82,而CNN返回得分为0。 41,0。 53和0。 62分别为50,InceptionV 3和VGG 16。 结果展示了汽车和CNN体系结构之间的大量学习差距,突显了汽车作为当今广泛使用的传统机器学习方法的潜在竞争者。自动化机器学习(AUTOML)算法,旨在简化此过程,并根据给定数据集自动构建模型体系结构。本论文研究了针对卷积神经网络(CNNS)Resnet 50,InceptionV 3和VGG 16的Autokeras(一种汽车算法)的性能,以实现面部情感识别的任务(FER)。CNN由于其专门的空间学习架构而经常用于FER任务。使用转移学习作为本文的主要方法,杠杆培训了CNN的预训练的成像网架构。所有预训练的层都被冷冻,并且完全连接的层和分类层例外。然后,在面部表情情绪的瓦阿赫加数据集上对他们进行培训。Autokeras在同一数据集上进行了培训,但是它是其自己的预处理和模型构建形式。结果表明,与三个CNN体系结构相比,汽车的性能出色,返回F 1分数为0。82,而CNN返回得分为0。41,0。53和0。62分别为50,InceptionV 3和VGG 16。结果展示了汽车和CNN体系结构之间的大量学习差距,突显了汽车作为当今广泛使用的传统机器学习方法的潜在竞争者。
主要关键词