Loading...
机构名称:
¥ 1.0

机器学习算法的使用经常涉及对学习参数的仔细调整和模型超参数。不幸的是,这种调整是一种“黑色艺术”,需要专家经验,经验法规或有时是蛮力搜索。因此,自动方法可以很好地呼吁,可以优化任何给定的学习算法的性能。在这项工作中,我们通过贝叶斯选择的框架来考虑这个问题,其中学习算法的概括性能是从高斯过程(GP)中建模为样本的。我们表明,对于GP性质的某些选择,例如内核的类型及其超级参数的处理,可以在获得可以实现专家级别的良好优化器方面发挥至关重要的作用。我们描述了新的算法,这些算法考虑了学习算法实验的可变成本(持续时间),并且可以利用多个内核的主体进行并行实验。我们表明,这些提出的算法可以改善以前的自动过程,并且可以针对许多算法(包括潜在的Dirichlet分配,结构化SVM和卷积神经网络)达到或超越人类专家级别的优化。

实用的贝叶斯优化机器学习算法

实用的贝叶斯优化机器学习算法PDF文件第1页

实用的贝叶斯优化机器学习算法PDF文件第2页

实用的贝叶斯优化机器学习算法PDF文件第3页

实用的贝叶斯优化机器学习算法PDF文件第4页

实用的贝叶斯优化机器学习算法PDF文件第5页

相关文件推荐