• 特征工程完整指南 - 第一部分


    一、说明 

            特征工程是利用领域知识从原始数据中提取特征的过程。这些功能可用于提高机器学习算法的性能。本篇叙述在特征选择过程的若干数据处理。

    一般来说,特征工程有以下子步骤:

    • 特征转换
    • 特征构建
    • 特征选择
    • 特征提取

    二、特征转换的缺失数据处理

    在特征变换中,我们做了以下几种处理

    2.1 缺失值插补

            在现实世界中,通常不可能找到完整且没有缺失值或NaN值的数据。因此,我们可以删除包含这些缺失值的行,或者执行插补(填充缺失值)以确保 ML 模型处理这些数据。

            要从 pandas 数据框中删除行,我们使用以下命令

    1. #Assuming data is store in df dataframe
    2. df.isnull().sum()
    3. #This returns the count of all the missing values in the columns
    4. #In order to remove the missing values, we use drop function
    5. df.drop(inplace=True)

    2.2 数据插补

            它是用各种插补策略(例如均值中位数众数插补)替换缺失值的过程。然而,也可以通过根据领域知识为数据分配值来随机进行插补。

    1. def mean_imputation(data, inplace=False):
    2. """
    3. This function replaces the missing values in the data with the average (mean) value of the data.
    4. Parameters:
    5. - data: The input data with missing values.
    6. - inplace: A boolean indicating whether to modify the data in place or return a new copy.
    7. If True, the missing values are filled in the original data; if False, a new copy with filled values is returned.
    8. (Default: False)
    9. """
    10. data.fillna(data.mean(), inplace=inplace)
    11. def median_imputation(data, inplace=False):
    12. """
    13. This function replaces the missing values in the data with the median value of the data.
    14. Parameters:
    15. - data: The input data with missing values.
    16. - inplace: A boolean indicating whether to modify the data in place or return a new copy.
    17. If True, the missing values are filled in the original data; if False, a new copy with filled values is returned.
    18. (Default: False)
    19. """
    20. data.fillna(data.median(), inplace=inplace)
    21. def mode_imputation(data, inplace=False):
    22. """
    23. This function replaces the missing values in the data with the mode value of the data.
    24. Parameters:
    25. - data: The input data with missing values.
    26. - inplace: A boolean indicating whether to modify the data in place or return a new copy.
    27. If True, the missing values are filled in the original data; if False, a new copy with filled values is returned.
    28. (Default: False)
    29. """
    30. data.fillna(data.mode(), inplace=inplace)

    替代方法

    1. threshold = 0.7
    2. #Dropping columns with missing value rate higher than threshold
    3. data = data[data.columns[data.isnull().mean() < threshold]]
    4. #Dropping rows with missing value rate higher than threshold
    5. data = data.loc[data.isnull().mean(axis=1) < threshold]

            我们还可以使用预测插补使用机器学习模型的插补

            在这种方法中,不是使用均值、中位数或众数等汇总统计来填充缺失值,而是使用机器学习模型根据在没有缺失值的剩余特征中观察到的模式来预测缺失值。

    三、处理分类特征

            One-hot 编码是一种用于将分类变量表示为二进制向量的技术。它通常用于机器学习和数据预处理任务。one-hot 编码过程将每个分类值转换为一个新的二进制特征,其中值的存在或不存在分别由 1 或 0 表示。

            此方法将难以理解算法的分类数据更改为数字格式,并使您能够对分类数据进行分组而不会丢失任何信息。

    一种热门编码技术

            在 one-hot 编码中,分类列中的每个不同值都由单独的二进制列表示。这意味着对于列中的 N 个不同值,将创建 N 个二进制列,每列代表特定值的存在或不存在。这种方法确保每个类别都有自己独立的二进制特征,使机器学习算法更容易理解和处理分类数据。

    1. encoded_columns = pd.get_dummies(data['column'])
    2. data = data.join(encoded_columns).drop('column', axis=1)

    四、异常值检测

    异常值检测是识别数据集中明显偏离大多数数据点的观测值的过程。

    检测异常值在数据分析和机器学习中非常重要,因为它们会对模型的结果和性能产生重大影响。

    统计方法:

    • Z 分数:计算每个数据点的 Z 分数,并标记 Z 分数高于特定阈值的数据点。
    1. import numpy as np
    2. def zscore_outlier_detection(data, threshold=3):
    3. z_scores = (data - np.mean(data)) / np.std(data)
    4. outliers = np.abs(z_scores) > threshold
    5. return outliers
    • 改进的 Z 得分方法:与 Z 得分方法类似,但使用稳健的变异估计,例如中值绝对偏差。
    1. from scipy.stats import median_absolute_deviation
    2. def modified_zscore_outlier_detection(data, threshold=3.5):
    3. median = np.median(data)
    4. median_abs_dev = median_absolute_deviation(data)
    5. modified_z_scores = 0.6745 * (data - median) / median_abs_dev
    6. outliers = np.abs(modified_z_scores) > threshold
    7. return outliers
    • Tukey 栅栏:将异常值识别为低于下栅栏 (Q1 — k * IQR) 或高于上栅栏 (Q3 + k * IQR) 的值,其中 Q1 和 Q3 是第一和第三四分位数,IQR 是四分位距。
    1. def tukey_fences_outlier_detection(data, k=1.5):
    2. q1 = np.percentile(data, 25)
    3. q3 = np.percentile(data, 75)
    4. iqr = q3 - q1
    5. lower_fence = q1 - k * iqr
    6. upper_fence = q3 + k * iqr
    7. outliers = (data < lower_fence) | (data > upper_fence)
    8. return outliers
    • K 最近邻 (KNN):测量每个点与其 k 个最近邻的距离,并将距离较大的点识别为异常值。
    1. from sklearn.neighbors import NearestNeighbors
    2. def knn_outlier_detection(data, k=5, threshold=1.5):
    3. neigh = NearestNeighbors(n_neighbors=k)
    4. neigh.fit(data)
    5. distances, _ = neigh.kneighbors(data)
    6. median_distance = np.median(distances[:, -1])
    7. normalized_distances = distances[:, -1] / median_distance
    8. outliers = normalized_distances > threshold
    9. return outliers
    • 局部异常值因子:计算每个点与其相邻点相比的局部密度,并将密度明显较低的点标记为异常值。
    1. from sklearn.neighbors import LocalOutlierFactor
    2. def lof_outlier_detection(data, contamination=0.1):
    3. lof = LocalOutlierFactor(n_neighbors=20, contamination=contamination)
    4. outliers = lof.fit_predict(data) == -1
    5. return outliers

    处理异常值的另一个选择是限制它们而不是丢弃它们。

    1. #Capping the outlier rows with percentiles
    2. upper_lim = data['column'].quantile(.95)
    3. lower_lim = data['column'].quantile(.05)
    4. data.loc[(df[column] > upper_lim),column] = upper_lim
    5. data.loc[(df[column] < lower_lim),column] = lower_lim

    五、特征缩放

            特征缩放是机器学习中的预处理步骤,涉及将数据集的数值特征转换为通用尺度。这很重要,因为当特征规模相似时,许多机器学习算法表现更好或收敛得更快。

            特征缩放的几种方法:

    5.1 标准化(Z 分数归一化)

            此方法将特征缩放至零均值和单位方差。它减去特征的平均值并除以标准差。标准化的公式为: x_scaled = (x — Mean(x)) / std(x)
    标准化可确保每个特征的平均值为 0标准差为 1,从而使所有特征具有相同的量级。

    x = 观察值,μ = 平均值,σ = 标准差

    1. from sklearn.preprocessing import StandardScaler
    2. # Create an instance of StandardScaler
    3. scaler = StandardScaler()
    4. # Assuming your data is stored in a 2D array or dataframe X
    5. # Fit the scaler to your data
    6. scaler.fit(X)
    7. # Transform the data
    8. X_scaled = scaler.transform(X)
    9. # The transformed data is now normalized using Z-score normalization

    5.2 最小-最大缩放

            此方法将特征缩放到指定范围(通常在 0 到 1 之间)。它减去特征的最小值并除以范围(最大值减去最小值)。最小-最大缩放的公式为: x_scaled = (x — min(x)) / (max(x) — min(x))

    1. from sklearn.preprocessing import MinMaxScaler
    2. import numpy as np
    3. # 4 samples/observations and 2 variables/features
    4. data = np.array([[4, 6], [11, 34], [10, 17], [1, 5]])
    5. # create scaler method
    6. scaler = MinMaxScaler(feature_range=(0,1))
    7. # fit and transform the data
    8. scaled_data = scaler.fit_transform(data)
    9. print(scaled_data)
    10. # [[0.3 0.03448276]
    11. # [1. 1. ]
    12. # [0.9 0.4137931 ]
    13. # [0. 0. ]]

    5.3 最大绝对缩放

            此方法将特征缩放到范围 [-1, 1]。它将每个特征值除以该特征中的最大绝对值。max-abs 缩放的公式为: x_scaled = x / max(abs(x))

    1. from sklearn.preprocessing import MaxAbsScaler
    2. # Create an instance of MaxAbsScaler
    3. scaler = MaxAbsScaler()
    4. # Assuming your data is stored in a 2D array or dataframe X
    5. # Fit the scaler to your data
    6. scaler.fit(X)
    7. # Transform the data
    8. X_scaled = scaler.transform(X)
    9. # The transformed data is now scaled using max-abs scaling

    特征缩放方法的选择取决于数据集的特征和所使用的机器学习算法的要求。

  • 相关阅读:
    运算符重载之日期类的实现
    ts重点学习109-枚举类型的兼容性
    汇川触摸屏IT7000E和汇川中小型系列PLC连接
    Express中的JWT使用
    不理解路径问题的大坑记录
    未来架构:无服务器计算和容器的融合
    腾讯云2023年双十一活动时间、活动入口、活动内容详细解读
    7.继承与多态 对象村的优质生活
    Python之第七章 函数 --- 基础
    tcpdump(一)基础理论知识
  • 原文地址:https://blog.csdn.net/gongdiwudu/article/details/134548787