文章目录
作用:分类
原理:构建一个二叉树,逐级条件判断筛选
假如有小明,小红和小张三个人,我们知道他们的身高体重,要通过身高体重来判断是哪个人,决策树算法会构建一个二叉树,逐级判断,如下

- from sklearn.tree import DecisionTreeClassifier
-
-
- tree_clf = DecisionTreeClassifier(max_depth=2)
- tree_clf.fit(X, y)
max_depth参数设置的是决策树的深度,上图的深度是2,它代表决策的次数
我们来看决策树的过程:每到一个节点进行一次询问,然后将数据集分向其他的节点,这样的特性决定了数据不需要经过特征缩放的处理
决策树模型可以输出每个类的概率
这意味着我们可以使用predict_proba方法,这将输出每个类的概率
- model = DecisionTreeClassifier(max_depth=2)
- model.fit(x, y)
-
- model.predict_proba(x)
决策树的训练算法被称为CART算法,它的目标是选择一个特征(k)和阈值(t)(在最开始的例子中,身高体重是特征,170和60kg是阈值),CART算法会通过成本函数不断优化,选择每个节点合适的特征和阈值

m为实例数
G为不纯度
下标left和right分别代表该节点的左右子树
实例数就是被分到某节点实例数量,在最开始的例子中,根节点的左实例数会这样记录:1个小明,0个小红,0个小张,右实例数会记为0个小明,1个小红,1个小张
不纯度代表着节点中类的混合程度,在最开始的例子中左节点只有一类,不纯度就为0,而右节点有两类,不纯度就较高,决策树算法中往往采用基尼不纯度来判定
它的公式为

为第k类的实例数
为总实例数
为了防止过拟合,我们当然要进行正则化,决策树的正则化通过控制参数max_depth来决定,越大则越可能过拟合
- from sklearn.datasets import load_iris
- from sklearn.tree import DecisionTreeClassifier
-
- iris = load_iris()
- X = iris.data[:, 2:] # petal length and width
- y = iris.target
-
- tree_clf = DecisionTreeClassifier(max_depth=3)
- tree_clf.fit(X, y)
当我们用上面代码训练模型时(使用花瓣长和宽做特征,决策树深度设为3),可能得到如下模型图
