3.4.1什么是朴素贝叶斯算法
朴素贝叶斯方法是在 贝叶斯 算法的基础上进行了相应的简化,即假定给定目标值时属性之间相互条件独立。. 也就是说没有哪个属性变量对于决策结果来说占有着较大的比重,也没有哪个属性变量对于决策结果占有着较小的比重。. 虽然这个简化方式在一定程度上降低了贝叶斯分类算法的分类效果,但是在实际的应用场景中,极大地简化了贝叶斯方法的复杂性
3.4.2 概率基础
1 概率定义
3.4.3 联合概率 条件概率与相互独立
联合概率 包含多个条件,且所有条件同时成立的概率
p(a|b) = p(a)p(b) <==> 事件a和事件b相互独立
朴素:假设特征之间相互独立
优点:对确实数据不太敏感,算法比较简单,常用与对文本进行分类,分类准确度高,速度快
缺点:由于使用了样本属性独立性的假设,所以如果特征属性有关联时效果不佳
- def nb_news():
- """
- 用朴素贝叶斯算法对新闻进行分类
- :return:
- """
- # 1)获取数据集
- news = fetch_20newsgroups(subset="all")
-
- # 2)划分数据集
- x_train, x_test, y_train, y_test = train_test_split(news.data, news.target)
-
- # 3)特征工程:文本特征抽取-tfidf
- transfer = TfidfVectorizer()
- x_train = transfer.fit_transform(x_train)
- x_test = transfer.transform(x_test)
-
- # 4)朴素贝叶斯算法预估器流程
- estimator = MultinomialNB()
- estimator.fit(x_train, y_train)
-
- # 5)模型评估
- # 方法1 直接比对真实值和预测值
- y_predict = estimator.predict(x_test)
- print("y_predict:\n", y_predict)
- print("直接比对真实值和预测值:\n", y_test == y_predict)
-
- # 方法2 计算准确率
- score = estimator.score(x_test, y_test)
- print("准确率为:\n", score)
-
- return None
3.5 决策树
3.5.1认识决策树
如何高效的进行决策:特征的先后顺序
3.5.2 决策树分类原理详解
信息论基础
1)信息
消除随机不定性的东西
2)信息的衡量
信息量 信息熵
3.5.3决策树的API
class sklearn.tree.DecisionTreeClassifier='gini'
max_depth=None,random_state=None
决策树分类器
criterion:默认是‘gini’系数,也可以选择增益的熵‘entropy’
max_depth:树的深度
random_state:随机数种子
- def decision_iris():
- """
- 用决策树对鸢尾花进行分类
- :return:
- """
- # 1)获取数据集
- iris = load_iris()
-
- # 2)划分数据集
- x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, random_state=22)
-
- # 3)决策树预估器
- estimator = DecisionTreeClassifier(criterion="entropy")
- estimator.fit(x_train, y_train)
-
- # 4)模型评估
- # 方法1 直接比对真实值和预测值
- y_predict = estimator.predict(x_test)
- print("y_predict:\n", y_predict)
- print("直接比对真实值和预测值:\n", y_test == y_predict)
-
- # 方法2 计算准确率
- score = estimator.score(x_test, y_test)
- print("准确率为:\n", score)
-
- return None
- def decision_iris():
- """
- 用决策树对鸢尾花进行分类
- :return:
- """
- # 1)获取数据集
- iris = load_iris()
-
- # 2)划分数据集
- x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, random_state=22)
-
- # 3)决策树预估器
- estimator = DecisionTreeClassifier(criterion="entropy")
- estimator.fit(x_train, y_train)
-
- # 4)模型评估
- # 方法1 直接比对真实值和预测值
- y_predict = estimator.predict(x_test)
- print("y_predict:\n", y_predict)
- print("直接比对真实值和预测值:\n", y_test == y_predict)
-
- # 方法2 计算准确率
- score = estimator.score(x_test, y_test)
- print("准确率为:\n", score)
-
- # 可视化决策树
- export_graphviz(estimator, out_file="iris_tree.dot", feature_names=iris.feature_names)
-
- return None
决策树总结:
优点:简单的理解和解释,树木可视化
缺点:决策树学习者可以创建不能很好的推广数据过于复杂的数,这被称为过拟合
改进:减枝cart算法
随机森林