新算法将使“深度学习”更加有效

莱斯大学的研究人员已经能够采用一种通用技术进行快速数据检索,以减少深度机器学习中的计算量。该方法适用于任何架构,并且神经网络越大,可以降低的计算成本就越显着。

来源:Robogeek新闻频道(关于机器人技术的俄罗斯与世界新闻)

莱斯大学的研究人员已经能够采用一种通用技术进行快速数据检索,以减少深度机器学习中的计算量。该方法适用于任何架构,并且神经网络越大,可以降低的计算成本就越显着。

这种新方法对于谷歌、Facebook 和微软等科技巨头尤其重要,它们利用大量数据来开发自主机器、翻译器和自动电子邮件响应系统。

莱斯大学团队提出的方法依赖于传统的“散列”,它将数据转化为易于操纵的小数字。这些哈希值存储在表中,可以将其与书籍的目录进行比较。这种方法可以让您在不显着损失精度的情况下降低计算成本——根据研究结果,计算次数减少了 95%,而精度仅改变了 1%。

深度学习网络的主要元素是人工神经元,它是一种将输入数据转换为某种结果的数学函数。在机器学习过程中,所有神经元最初都是相同的,但在此过程中被专门化。该系统会“显示”大量数据,每个神经元都能识别其各自的部分和模式。较低级别的神经元执行简单的任务,将其工作结果传输到较高级别的神经元。只需几层神经元的系统就可以学习识别图像中的人脸、狗、路标等。