3个决策树的贪婪算法,用示例解释

了解决策树的决策三种贪婪算法的内在工作,首先在数据科学方面出现了示例。

来源:走向数据科学

树是直观的,类似流程图的模型,广泛用于机器学习。

在机器学习中,它们是更复杂的整体模型(如随机森林和梯度增强机器)的基本构建块。

在本文中,我将通过演练示例探索他们的机制。

什么是决策树?

决策树构建了用于财务,医学和教育等各个部门的回归和分类问题的树结构。

决策树的主要特征包括:

    层次树结构(参见序列:顺序结构).Non-parametric:没有固定数量的参数数量,对数据分发的假设没有假设:有效地用于回归和分类。基于IMPURITY的优化。优化的优化:优化的优化点,以最大程度地计算纯度(或最小化的纯度)。决策功能。收集数据拆分:使用贪婪算法优化数据拆分,直到达到每个节点中的数据达到最大纯度的点。解释:结果树提供清晰,可解释的决策规则,可以轻松地理解并应用于预测或分类。
  • 分层树结构(参见提升:顺序结构)。
  • 层次结构
  • 非参数:没有固定数量的参数,没有关于数据分布的假设。
  • 非参数
  • 多功能:有效地用于回归和分类。
  • Versatile 回归 分类
  • 基于杂质的优化:优化给定数据集的分裂点,以最大程度地提高儿童节点的纯度(或最小化杂质)。
  • 基于杂质的优化:
  • 要计算纯度,将杂质措施作为决策功能。
  • 杂质测量
  • 递归数据拆分:使用贪婪的算法来优化数据拆分,直到达到每个节点中的数据达到最大纯度的点为止。
  • 递归数据拆分: 贪婪算法 可解释: 根节点 决策节点 1-1/c