机器学习中的分类和回归树简介

为什么重要:分类和回归树或简称 CART 是用于描述用于分类和回归任务的决策树算法的术语。这些树的结果非常容易理解,这使它们比其他算法更具优势。

来源:人工智能+

简介

简介

分类和回归树(简称 CART)是用于描述用于分类和回归任务的决策树算法的术语。该术语最初由 Leo Breiman、Jerome Friedman、Richard Olshen 和 Charles Stone 于 1984 年提出。在讨论分类和回归树之前,我们需要先研究一下什么是决策树。

什么是决策树?

什么是决策树?

基本上,决策树是一系列 if-else 语句,可用于根据数据预测某个结果。决策树的目标是创建一个模型,该模型可以通过学习从数据中推断出的决策规则来预测目标变量的值。决策树是倒着画的,根在顶部。然后它会在分支处分裂,这些分支的末端是叶子,决策不再在这里分裂。

来源:YouTube
来源:YouTube
YouTube

下面是一个决策树的例子:

机器学习中的分类树和回归树简介
机器学习中的分类树和回归树简介

这个例子是一个非常简单的决策树。真实的数据集将具有更多的分支,因此是一棵更大的树。要创建决策树,我们需要知道从数据集中选择哪些特征以及使用什么条件进行拆分。最后,我们需要知道在哪里停止。

决策树的优点和缺点

决策树的优点和缺点

使用决策树进行机器学习有优点也有缺点。一些优点包括:

  • 决策树非常容易理解和解释,因为它们可以被可视化。
  • 不需要对数据进行规范化。这使得它几乎不需要数据准备。
  • 它可以处理数字数据和分类数据。
  • 它可以处理多个输出问题。
  • 使用决策树也有缺点。一些缺点包括:

    回归树