码农知识堂 - 1000bd
  •   Python
  •   PHP
  •   JS/TS
  •   JAVA
  •   C/C++
  •   C#
  •   GO
  •   Kotlin
  •   Swift
  • 【机器学习】python机器学习使用scikit-learn对模型进行微调:按特征贡献大小保留最重要k个特征的transform


    端到端机器学习导航:
    【机器学习】python借助pandas加载并显示csv数据文件,并绘制直方图
    【机器学习】python使用matplotlib进行二维数据绘图并保存为png图片
    【机器学习】python借助pandas及scikit-learn使用三种方法分割训练集及测试集
    【机器学习】python借助pandas及matplotlib将输入数据可视化,并计算相关性
    【机器学习】python机器学习借助scikit-learn进行数据预处理工作:缺失值填补,文本处理(一)
    【机器学习】python机器学习scikit-learn和pandas进行Pipeline处理工作:归一化和标准化及自定义转换器(二)
    【机器学习】python机器学习使用scikit-learn评估模型:基于普通抽样及分层抽样的k折交叉验证做模型选择
    【机器学习】python机器学习使用scikit-learn对模型进行微调:使用GridSearchCV及RandomizedSearchCV
    【机器学习】python机器学习使用scikit-learn对模型进行评估:使用t分布及z分布评估模型误差的95%置信空间
    【机器学习】python机器学习使用scikit-learn对模型进行微调:RandomizedSearchCV的分布参数设置
    【机器学习】python机器学习使用scikit-learn对模型进行微调:按特征贡献大小保留最重要k个特征的transform
    【机器学习】python机器学习使用scikit-learn对模型进行微调:使用RandomizedSearchCV对pipline进行参数选择

    1.重要性筛选器的transformer为:

    from sklearn.base import BaseEstimator, TransformerMixin
    
    def indices_of_top_k(arr, k):
        #np.argpartition ()将传入的数组arr分成 两部分 ,即:排在第k位置前面的数都小于k位置,排在第k位置后面的值都大于k位置
        #np.argpartition(np.array(arr), -k)保证最后k个数大于k位置的数,[-k:]取最后的k个值,这个组合求数组内最大的k个数
        #该函数返回的是下标,再按下标进行排序
        return np.sort(np.argpartition(np.array(arr), -k)[-k:])
    
    class TopFeatureSelector(BaseEstimator, TransformerMixin):
        #feature_importances为特证重要度,越大重要度越高
        def __init__(self, feature_importances, k):
            self.feature_importances = feature_importances
            self.k = k
        def fit(self, X, y=None):
            self.feature_indices_ = indices_of_top_k(self.feature_importances, self.k)
            return self
        def transform(self, X):
            return X[:, self.feature_indices_]
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18

    2.用例:
    这里以树模型进行举例:feature_importances_ 参数目前只出现在决策树或以决策树为基础的评估器中:
    数据准备:

    import os
    
    HOUSING_PATH = os.path.join("datasets", "housing")
    import pandas as pd
    
    def load_housing_data(housing_path=HOUSING_PATH):
        csv_path = os.path.join(housing_path, "housing.csv")
        return pd.read_csv(csv_path)
    housing=load_housing_data()
    housing2=housing.copy()
    import numpy as np
    
    #预处理前去掉带文字的指定列
    from sklearn.preprocessing import MinMaxScaler,StandardScaler,OneHotEncoder
    
    from sklearn.impute import SimpleImputer
    housing_num = housing2.drop("ocean_proximity", axis=1)
    from sklearn.preprocessing import StandardScaler
    from sklearn.pipeline import Pipeline
    num_pipeline = Pipeline([
            ('imputer', SimpleImputer(strategy="median")),
            ('std_scaler', StandardScaler())
        ])
    
    
    
    from sklearn.compose import ColumnTransformer
    #返回所有列名
    num_attribs = list(housing_num)
    
    cat_attribs = ["ocean_proximity"]
    #找出待独热编码列的最大分类数,不然在进行测试集划分处理时,
    #容易造成独热向量因测试集构成不同而列数不一致的情况
    categories=housing2['ocean_proximity'].unique()
    full_pipeline = ColumnTransformer([
            ("num", num_pipeline, num_attribs),
            ("cat", OneHotEncoder(categories=[categories]), cat_attribs),
        ])
    #抽样后的数据,去除预测目标列,并拿出对应目标列准备数据训练
    housing_labels = housing2["median_house_value"]
    
    housing_prepared = full_pipeline.fit_transform(housing2)
    from sklearn.model_selection import train_test_split
    train_set, test_set,train_sety, test_sety = train_test_split(housing_prepared,housing_labels, test_size=0.1, random_state=42)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44

    预测得到特征贡献值,并用本文特征筛选器进行筛选:

    from sklearn.model_selection import RandomizedSearchCV
    from sklearn.ensemble import RandomForestRegressor
    import matplotlib.pyplot as plt
    import numpy as np
    
    param_distribs = {
        #对于搜索范围是list的超参数,在给定的list中等概率采样
            'kernel': ['linear', 'rbf'],
            'C': reciprocal(20, 200),
            'gamma': expon(scale=1.0),
        }
    forest_reg = RandomForestRegressor(random_state=42)
    forest_reg.fit(train_set[:1000], train_sety[:1000])
    print(forest_reg.feature_importances_)
    importantArray=forest_reg.feature_importances_
    
    from sklearn.base import BaseEstimator, TransformerMixin
    
    def indices_of_top_k(arr, k):
        #np.argpartition ()将传入的数组arr分成 两部分 ,即:排在第k位置前面的数都小于k位置,排在第k位置后面的值都大于k位置
        #np.argpartition(np.array(arr), -k)保证最后k个数大于k位置的数,[-k:]取最后的k个值,这个组合求数组内最大的k个数
        #该函数返回的是下标,再按下标进行排序
        return np.sort(np.argpartition(np.array(arr), -k)[-k:])
    
    class TopFeatureSelector(BaseEstimator, TransformerMixin):
        #feature_importances为特证重要度,越大重要度越高
        def __init__(self, feature_importances, k):
            self.feature_importances = feature_importances
            self.k = k
        def fit(self, X, y=None):
            self.feature_indices_ = indices_of_top_k(self.feature_importances, self.k)
            return self
        def transform(self, X):
            return X[:, self.feature_indices_]
    
    #有了重要特征后重新训练:
    full_pipeline2=  Pipeline([
            ('prepared', full_pipeline),
            ("filter",TopFeatureSelector(importantArray,5))
        ])
    
    housing_prepared = full_pipeline2.fit_transform(housing2)
    print(housing_prepared.shape)
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43

    输出为:

    原始特征贡献度列表为:[1.02515161e-05 1.61509216e-05 1.76575395e-05 1.02708858e-05
     1.12920206e-05 1.58529503e-05 8.76720983e-06 1.89549348e-05
     9.99882943e-01 1.34032475e-06 2.87741167e-06 1.97157680e-06
     1.66973611e-06 0.00000000e+00]
    最终特征矩阵大小为(20640, 5)
    
    • 1
    • 2
    • 3
    • 4
    • 5

    由此得到新的5列最重要的特征。

  • 相关阅读:
    微服务学习计划——消息队列
    MySQL - 死锁的产生及解决方案
    使用jenkins+gitee创建docker镜像并运行
    JDK1.8下载与安装(完整图文教程含安装包)
    猿创征文 | 盘点10个冷门Python库,原来Python还能实现这些功能?
    docker 开启 nginx 容器
    【短文】在Windows显示所有当前打开的连接和监听的端口
    文本样式(垂直、水平)
    MySQL运维实战之备份和恢复(8.7)将数据库恢复到指定时间点的另外一种方法
    小熊听书项目的测试
  • 原文地址:https://blog.csdn.net/hh1357102/article/details/126404172
  • 最新文章
  • 攻防演习之三天拿下官网站群
    数据安全治理学习——前期安全规划和安全管理体系建设
    企业安全 | 企业内一次钓鱼演练准备过程
    内网渗透测试 | Kerberos协议及其部分攻击手法
    0day的产生 | 不懂代码的"代码审计"
    安装scrcpy-client模块av模块异常,环境问题解决方案
    leetcode hot100【LeetCode 279. 完全平方数】java实现
    OpenWrt下安装Mosquitto
    AnatoMask论文汇总
    【AI日记】24.11.01 LangChain、openai api和github copilot
  • 热门文章
  • 十款代码表白小特效 一个比一个浪漫 赶紧收藏起来吧!!!
    奉劝各位学弟学妹们,该打造你的技术影响力了!
    五年了,我在 CSDN 的两个一百万。
    Java俄罗斯方块,老程序员花了一个周末,连接中学年代!
    面试官都震惊,你这网络基础可以啊!
    你真的会用百度吗?我不信 — 那些不为人知的搜索引擎语法
    心情不好的时候,用 Python 画棵樱花树送给自己吧
    通宵一晚做出来的一款类似CS的第一人称射击游戏Demo!原来做游戏也不是很难,连憨憨学妹都学会了!
    13 万字 C 语言从入门到精通保姆级教程2021 年版
    10行代码集2000张美女图,Python爬虫120例,再上征途
Copyright © 2022 侵权请联系2656653265@qq.com    京ICP备2022015340号-1
正则表达式工具 cron表达式工具 密码生成工具

京公网安备 11010502049817号