Loading...
机构名称:
¥ 3.0

建筑神经体系结构通常需要在机器学习领域的专业知识,在该领域中,需要对模型建设的过程拥有广泛的知识和复杂性。自动化机器学习(AUTOML)算法,旨在简化此过程,并根据给定数据集自动构建模型体系结构。 本论文研究了针对卷积神经网络(CNNS)Resnet 50,InceptionV 3和VGG 16的Autokeras(一种汽车算法)的性能,以实现面部情感识别的任务(FER)。 CNN由于其专门的空间学习架构而经常用于FER任务。 使用转移学习作为本文的主要方法,杠杆培训了CNN的预训练的成像网架构。 所有预训练的层都被冷冻,并且完全连接的层和分类层例外。 然后,在面部表情情绪的瓦阿赫加数据集上对他们进行培训。 Autokeras在同一数据集上进行了培训,但是它是其自己的预处理和模型构建形式。 结果表明,与三个CNN体系结构相比,汽车的性能出色,返回F 1分数为0。 82,而CNN返回得分为0。 41,0。 53和0。 62分别为50,InceptionV 3和VGG 16。 结果展示了汽车和CNN体系结构之间的大量学习差距,突显了汽车作为当今广泛使用的传统机器学习方法的潜在竞争者。自动化机器学习(AUTOML)算法,旨在简化此过程,并根据给定数据集自动构建模型体系结构。本论文研究了针对卷积神经网络(CNNS)Resnet 50,InceptionV 3和VGG 16的Autokeras(一种汽车算法)的性能,以实现面部情感识别的任务(FER)。CNN由于其专门的空间学习架构而经常用于FER任务。使用转移学习作为本文的主要方法,杠杆培训了CNN的预训练的成像网架构。所有预训练的层都被冷冻,并且完全连接的层和分类层例外。然后,在面部表情情绪的瓦阿赫加数据集上对他们进行培训。Autokeras在同一数据集上进行了培训,但是它是其自己的预处理和模型构建形式。结果表明,与三个CNN体系结构相比,汽车的性能出色,返回F 1分数为0。82,而CNN返回得分为0。41,0。53和0。62分别为50,InceptionV 3和VGG 16。结果展示了汽车和CNN体系结构之间的大量学习差距,突显了汽车作为当今广泛使用的传统机器学习方法的潜在竞争者。

使用automl -http

使用automl -httpPDF文件第1页

使用automl -httpPDF文件第2页

使用automl -httpPDF文件第3页

使用automl -httpPDF文件第4页

使用automl -httpPDF文件第5页

相关文件推荐

2024 年
¥1.0
2020 年
¥3.0
2021 年
¥2.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
1900 年
¥1.0
1900 年
¥1.0
2022 年
¥1.0
2025 年
¥1.0
2022 年
¥1.0
2021 年
¥1.0
2022 年
¥1.0
2021 年
¥1.0
2020 年
¥1.0
2023 年
¥1.0
2021 年
¥2.0
2020 年
¥1.0
2025 年
¥2.0
2024 年
¥2.0
2015 年
¥1.0
2024 年
¥2.0
2021 年
¥1.0
2023 年
¥1.0
2020 年
¥1.0
1900 年
¥8.0
2018 年
¥26.0
2018 年
¥6.0
2022 年
¥1.0
2017 年
¥12.0