抽象的手语是聋人和静音者的唯一交流手段。,但是许多普通人不知道手语。因此,用手语说话的人很难与那些不说手语交流的人进行交流。本文扩展了先前提出的卷积神经网络(CNN)模型,用于使用基于MobileNETV2的转移学习模型来预测手语。所提出的系统旨在通过将手语的手势转化为文本或语音来为听力受损的用户提供有效的沟通。TensorFlow K-NN图像分类器用于训练训练集的模型。分类器涉及k-neart的邻居分类器。类的数量取决于数据集中唯一标志的数量,每个类都与一个符号关联。Mobilenet模型已在大型图像数据集上进行了预训练,并在ASL手符号图像上进行了微调以学习判别特征。从Mobilenet模型中提取功能后,使用KNN分类器进行手语识别。knn是一种简单而有效的算法,它基于特征空间中其K-Neart最邻居的多数类别为输入样本分配标签。在这种情况下,邻居对应于先前看到的手语手势。拟议的手语翻译系统具有许多实际应用,例如在日常互动期间有听力或语音障碍的人。关键字: - 手语翻译器,K -NN图像分类器,CNN,Mobilenet,TensorFlow,Tokbox。此外,它可以集成到教育平台中,以支持手语学习者并提供包容性的语言教育机会。
主要关键词