Loading...
机构名称:
¥ 1.0

本研究探讨了如何使用基于 Transformer 的模型(例如 BERT 和 DistilBERT)对 IMDb 电影评论进行情感分析。实验的目的是找到准确率和计算效率之间的平衡,评估两种模型在不同训练参数下的表现。BERT 在三个时期内达到了 91.39% 的峰值准确率,总共需要 54 分钟进行训练。另一方面,DistilBERT 仅用 38 分 25 秒就达到了 91.80% 的类似准确率。尽管准确率略有差异,但 DistilBERT 被证明是一种更高效的训练选择,因此成为资源有限环境的可行替代品。该研究结果与 R. Talibzade (2023) 的研究形成了对比,后者使用 BERT 获得了 98% 的准确率,但需要 12 小时的训练,说明了准确率和训练时间之间的平衡。未来可能的任务包括进一步完善、使用更大的数据集进行测试、研究替代的 Transformer 模型,以及利用更高效的训练方法来提高性能而不牺牲效率。这是一篇 CC BY-NC 许可下的开放获取文章

使用 Transformer 进行情绪分析

使用 Transformer 进行情绪分析PDF文件第1页

使用 Transformer 进行情绪分析PDF文件第2页

使用 Transformer 进行情绪分析PDF文件第3页

使用 Transformer 进行情绪分析PDF文件第4页

使用 Transformer 进行情绪分析PDF文件第5页

相关文件推荐