调整决策-Tree超参数的视觉指南

超参数调整如何视觉更改决策treesthe之后,在调整决策树超级方面的视觉指南首先出现在数据科学上。

来源:走向数据科学

简介

是用于分类和回归的最古老,最流行的机器学习形式之一。因此,毫不奇怪,关于它们的内容很多。但是,其中大多数似乎集中于算法的工作原理,涵盖了Gini杂质或错误最小化等领域。尽管这是有用的知识,但我对如何最好地使用决策树来获得我想要的结果更感兴趣 - 毕竟,我的工作并不涉及重新发明树,而只会种植它们。此外,决策树是一些最容易可视化的机器学习技术,提供高的可解释性,但通常内容主要是文字性的,并且图形很小。

基于这两个因素,我决定探索不同的决策树超级法仪如何影响树的性能(通过MAE,RMSE和R²等因素来衡量)以及视觉上的外观(看到诸如深度,节点/叶子计数和整体结构之类的因素)。

对于模型,我将使用Scikit-Learn的决策者打击器。分类决策树需要类似的超参数调整与回归的调整,因此我不会单独讨论它们。我要查看的超参数是max_depth,ccp_alpha,min_samples_split,min_samples_leaf和max_leaf_nodes。我将使用California Housing数据集,可通过Scikit-Learn获得(此处更多信息)(CC-BY)。下面的所有图像都是我创建的。这个小项目的代码,如果您想自己玩游戏,请在我的github中提供:

dekistionTreeReReRegressor max_depth ccp_alpha min_samples_split min_samples_leaf max_leaf_nodes 更多信息在这里 https://github.com/jamesdeluk/data-projects/tree/main/main/visalising-trees

数据

这是数据(用于视觉目的):

featurerow 1Row 2Row 3 功能 第1行 第2行 第3行 MEDINC8.32528.30147.2574 medinc 8.3252 8.3014 7.2574 住房412152 住房 41 21 52 Averooms6.984126986.238137088.28813559 Averooms 322 496