• 字典&文本特征提取,jieba库


    目录

    特征提取

    字典特征提取 

    示例:

    文本特征提取

    示例1(不含中文的语句)

     示例2(包含中文的语句)

     jieba分词示例

    文本特征抽取 TfidfVectorizer


    特征提取

    将任意数据(如文本或图像)转换为可用于机器学习的数字特征

    注:特征值化是为了计算机更好的去理解数据

    • 字典特征提取(特征离散化)
    • 文本特征提取
    • 图像特征提取(涉及深度学习)

    特征提取API

    sklearn.feature_extraction

    字典特征提取 

    sklearn.feature_extraction.DictVectorizer(sparse=True,...)

    •  DictVectorizer.fit_transform(X) X :字典或者包含字典的迭代器        返回值:返回sparse矩阵
    • DictVectorizer.inverse_transform(X)  X:array数组或者sparse矩阵   返回值:转换之前的数据格式
    • DictVectorizer.get_feature_names()  返回类别名称

    示例:

    最终的输出为一个sparse矩阵(矩阵中为非零值的位置及其值)

    转换器默认返回的是sparse,只返回矩阵中值为非零的位置和数值,当矩阵为稀疏数组的时候,sparse具有很大的优点,可以节省空间。

    但此时的数据较少,我们希望获得如下的矩阵,那么有两个方法。

    方法一:得到的sparse矩阵调用toarray()即可输出对应的完整矩阵

    方法二:只需将实例化转换器的方法中把sparse参数的值设置为False就可以了。

    transfer=DictVectorizer(sparse=False)

    文本特征提取

    返回的矩阵是关于词频的

    sklearn.feature_extraction.text.CountVectorizer(stop_words=[])

    stop_words=[],是停用词列表,就是说被放进列表里的元素不会被当作特征值进行提取。

    注:文本提取的转换器是没有sparse这个参数的,想要把得到的矩阵转为非稀疏矩阵,只有将得到的矩阵调用toarray()方法才可以,不能设置sparse=true

    • CountVectorizer.fit_transform(X) X :文本或者包含文本的可迭代对象        返回值:返回sparse矩阵
    • CountVectorizer.inverse_transform(X)  X:array数组或者sparse矩阵   返回值:转换之前的数据格式
    • CountVectorizer.get_feature_names()  返回值:单词列表

    示例1(不含中文的语句)

     

     示例2(包含中文的语句)

    可以看到,当数据为中文的时候,一整个句子被当作了一个特征值 

     如果想要将中文句子切分成许多个特征值,那么我们可以采用空格分开

     得到的结果如下,可看见,不支持单个中文字!

      但是在数据量较大的时候,我们总不能手动的用空格一个一个的分开,这个时候我们可以使用python里面的第三方库——jieba,关于jieba,我感觉这个博主的文章介绍得不错,链接在下方

    http://t.csdn.cn/8SBoB

     jieba分词示例

    运行结果 

     

    文本特征抽取 TfidfVectorizer

    sklearn.feature_extraction.text.TfidfVectorizer(stop_words=[])

    • TfidfVectorizer.fit_transform(X) X :文本或者包含文本的可迭代对象        返回值:返回词的权重sparse矩阵
    • TfidfVectorizer.inverse_transform(X)  X:array数组或者sparse矩阵   返回值:转换之前的数据格式
    • TfidfVectorizer.get_feature_names()  返回值:单词列表

    TFIDF的基本思想:如果某个词或短语在一片文章中出现的概率高,并且在其他文章中很少出现,则认为该词或短语具有很好的类别区分能力,适合用于分类。

    TF:Term Frequency,某个词在某篇具体的文章中出现的频率

    IDF:nverse Donument Frequency,逆文档频率

            idf=log(总文档的数量/该词出现的文档的数量)

    公式:tfidf=tf*idf

    TF-IDF的作用:用于评估一个词对于一个语料库中的一份文档的重要程度

     

  • 相关阅读:
    python多文件打包.exe执行文件
    内存马概念
    Qt/C++编写物联网组件/支持modbus/rtu/tcp/udp/websocket/mqtt/多线程采集
    【PAT(甲级)】1043 Is It a Binary Search Tree
    Assembling a Query Engine From Spare Parts
    .NET代码调优让程序占用内存减少
    【3D 图像分割】基于 Pytorch 的 3D 图像分割11(预测结果 recall 和 FPAR 评估)
    锐捷ISIS基础实验
    深度学习之 python pandas
    Java手写链表和案例拓展
  • 原文地址:https://blog.csdn.net/wxxxx_xx/article/details/127441799