• 字典&文本特征提取,jieba库


    目录

    特征提取

    字典特征提取 

    示例:

    文本特征提取

    示例1(不含中文的语句)

     示例2(包含中文的语句)

     jieba分词示例

    文本特征抽取 TfidfVectorizer


    特征提取

    将任意数据(如文本或图像)转换为可用于机器学习的数字特征

    注:特征值化是为了计算机更好的去理解数据

    • 字典特征提取(特征离散化)
    • 文本特征提取
    • 图像特征提取(涉及深度学习)

    特征提取API

    sklearn.feature_extraction

    字典特征提取 

    sklearn.feature_extraction.DictVectorizer(sparse=True,...)

    •  DictVectorizer.fit_transform(X) X :字典或者包含字典的迭代器        返回值:返回sparse矩阵
    • DictVectorizer.inverse_transform(X)  X:array数组或者sparse矩阵   返回值:转换之前的数据格式
    • DictVectorizer.get_feature_names()  返回类别名称

    示例:

    最终的输出为一个sparse矩阵(矩阵中为非零值的位置及其值)

    转换器默认返回的是sparse,只返回矩阵中值为非零的位置和数值,当矩阵为稀疏数组的时候,sparse具有很大的优点,可以节省空间。

    但此时的数据较少,我们希望获得如下的矩阵,那么有两个方法。

    方法一:得到的sparse矩阵调用toarray()即可输出对应的完整矩阵

    方法二:只需将实例化转换器的方法中把sparse参数的值设置为False就可以了。

    transfer=DictVectorizer(sparse=False)

    文本特征提取

    返回的矩阵是关于词频的

    sklearn.feature_extraction.text.CountVectorizer(stop_words=[])

    stop_words=[],是停用词列表,就是说被放进列表里的元素不会被当作特征值进行提取。

    注:文本提取的转换器是没有sparse这个参数的,想要把得到的矩阵转为非稀疏矩阵,只有将得到的矩阵调用toarray()方法才可以,不能设置sparse=true

    • CountVectorizer.fit_transform(X) X :文本或者包含文本的可迭代对象        返回值:返回sparse矩阵
    • CountVectorizer.inverse_transform(X)  X:array数组或者sparse矩阵   返回值:转换之前的数据格式
    • CountVectorizer.get_feature_names()  返回值:单词列表

    示例1(不含中文的语句)

     

     示例2(包含中文的语句)

    可以看到,当数据为中文的时候,一整个句子被当作了一个特征值 

     如果想要将中文句子切分成许多个特征值,那么我们可以采用空格分开

     得到的结果如下,可看见,不支持单个中文字!

      但是在数据量较大的时候,我们总不能手动的用空格一个一个的分开,这个时候我们可以使用python里面的第三方库——jieba,关于jieba,我感觉这个博主的文章介绍得不错,链接在下方

    http://t.csdn.cn/8SBoB

     jieba分词示例

    运行结果 

     

    文本特征抽取 TfidfVectorizer

    sklearn.feature_extraction.text.TfidfVectorizer(stop_words=[])

    • TfidfVectorizer.fit_transform(X) X :文本或者包含文本的可迭代对象        返回值:返回词的权重sparse矩阵
    • TfidfVectorizer.inverse_transform(X)  X:array数组或者sparse矩阵   返回值:转换之前的数据格式
    • TfidfVectorizer.get_feature_names()  返回值:单词列表

    TFIDF的基本思想:如果某个词或短语在一片文章中出现的概率高,并且在其他文章中很少出现,则认为该词或短语具有很好的类别区分能力,适合用于分类。

    TF:Term Frequency,某个词在某篇具体的文章中出现的频率

    IDF:nverse Donument Frequency,逆文档频率

            idf=log(总文档的数量/该词出现的文档的数量)

    公式:tfidf=tf*idf

    TF-IDF的作用:用于评估一个词对于一个语料库中的一份文档的重要程度

     

  • 相关阅读:
    【算法】Reverse Integer
    我的创作纪念日
    云南美食介绍 简单静态HTML网页作品 美食餐饮网站设计与实现 学生美食网站模板
    Springboot 服务 禁止设置启动server端口使用
    挖掘PostgreSQL事务的“中间态”----更加严谨的数据一致性?
    NPS:使用 Windows NPS Server 部署 802.1X 无线认证(2)
    db2数据仓库集群的搭建
    简化Microsoft365审核
    Java实战项目-基于SpringBoot的新能源汽车个性化推荐系统
    【Django使用】django经验md文档10大模块。第4期:Django数据库增删改查
  • 原文地址:https://blog.csdn.net/wxxxx_xx/article/details/127441799