• 深度学习每周学习总结N1(one-hot 编码案例)


    总结:

    之前有学习过文本预处理的环节,对文本处理的主要方式有以下三种:

    1:词袋模型(one-hot编码)

    2:TF-IDF

    3:Word2Vec(词向量)

    详细介绍及中英文分词详见pytorch文本分类(一):文本预处理

    本期主要介绍one-hot编码示例流程(词汇表 -> 文本序列 -> One-hot编码)手撕模式 + 直接调用现成的词袋模型(CountVectorizer)

    1. 中文文本One-Hot编码示例

    import torch
    import torch.nn.functional as F
    import jieba
    
    # 示例中文文本
    texts = ['你好,最近怎么样?','我过的很好,谢谢!','再见。']
    
    # 使用结巴分词进行分词
    tokenized_texts = [list(jieba.cut(text)) for text in texts] # [['你好', ',', '最近', '怎么样', '?'], ['我', '过', '的', '很好', ',', '谢谢', '!'], ['再见', '。']]
    
    # 构建词汇表
    word_index = {}
    index_word = {}
    # 将所有分词结果中的单词去重,建立 word_index 和 index_word 两个字典,分别存储单词到索引和索引到单词的映射
    for i,word in enumerate(set(word for text in tokenized_texts for word in text)):
        word_index[word] = i
        index_word[i] = word
        
    # 将文本转化为整数序列
    sequences = [[word_index[word] for word in text] for text in tokenized_texts] 
    
    # 获取词汇表大小
    vocab_size = len(word_index)
    
    # 将整数序列转化为ont-hot编码
    one_hot_results = torch.zeros(len(texts),vocab_size)
    for i,seq in enumerate(sequences):
        one_hot_results[i,seq] = 1
        
    # 打印结果
    print("词汇表: \n",word_index)
    print("文本: \n",texts)
    print("分词结果: \n",tokenized_texts)
    print("文本序列: \n",sequences)
    print("One-Hot编码: \n",one_hot_results)
    
    词汇表: 
     {'。': 0, '的': 1, '谢谢': 2, '你好': 3, '再见': 4, '我过': 5, '!': 6, '很': 7, '?': 8, '好': 9, '怎么样': 10, '最近': 11, ',': 12}
    文本: 
     ['你好,最近怎么样?', '我过的很好,谢谢!', '再见。']
    分词结果: 
     [['你好', ',', '最近', '怎么样', '?'], ['我过', '的', '很', '好', ',', '谢谢', '!'], ['再见', '。']]
    文本序列: 
     [[3, 12, 11, 10, 8], [5, 1, 7, 9, 12, 2, 6], [4, 0]]
    One-Hot编码: 
     tensor([[0., 0., 0., 1., 0., 0., 0., 0., 1., 0., 1., 1., 1.],
            [0., 1., 1., 0., 0., 1., 1., 1., 0., 1., 0., 0., 1.],
            [1., 0., 0., 0., 1., 0., 0., 0., 0., 0., 0., 0., 0.]])
    

    让我们逐步解析这段代码,并说明每一步操作后数据的结构和状态。

    代码解析

    1. 导入必要的库

      import torch
      import torch.nn.functional as F
      import jieba
      
    2. 示例中文文本

      texts = ['你好,最近怎么样?', '我过的很好,谢谢!', '再见。']
      

      texts 是一个包含三条中文文本的列表。

    3. 使用结巴分词进行分词

      tokenized_texts = [list(jieba.cut(text)) for text in texts]
      

      操作:对每条文本进行分词,结果存储在 tokenized_texts 列表中。

      结果

      tokenized_texts = [['你好', ',', '最近', '怎么样', '?'], ['我', '过', '的', '很好', ',', '谢谢', '!'], ['再见', '。']]
      
    4. 构建词汇表

      word_index = {}
      index_word = {}
      for i, word in enumerate(set(word for text in tokenized_texts for word in text)):
          word_index[word] = i
          index_word[i] = word
      

      操作:将所有分词结果中的单词去重,建立 word_indexindex_word 两个字典,分别存储单词到索引和索引到单词的映射。

      结果

      word_index = {'最近': 0, '谢谢': 1, '?': 2, '的': 3, ',': 4, '怎么样': 5, '很好': 6, '我': 7, '再见': 8, '你好': 9, '过': 10, '。': 11, '!': 12}
      index_word = {0: '最近', 1: '谢谢', 2: '?', 3: '的', 4: ',', 5: '怎么样', 6: '很好', 7: '我', 8: '再见', 9: '你好', 10: '过', 11: '。', 12: '!'}
      
    5. 将文本转化为整数序列

      sequences = [[word_index[word] for word in text] for text in tokenized_texts]
      

      操作:将每条分词后的文本转化为对应的整数序列。

      结果

      sequences = [[9, 4, 0, 5, 2], [7, 10, 3, 6, 4, 1, 12], [8, 11]]
      
    6. 获取词汇表大小

      vocab_size = len(word_index)
      

      操作:计算词汇表的大小。

      结果

      vocab_size = 13
      
    7. 将整数序列转化为one-hot编码

      one_hot_results = torch.zeros(len(texts), vocab_size)
      for i, seq in enumerate(sequences):
          one_hot_results[i, seq] = 1
      

      操作:初始化一个全零的二维张量 one_hot_results,然后根据每条文本的整数序列,将对应位置置为1,生成one-hot编码。

      结果

      tensor([[0., 0., 1., 0., 1., 1., 0., 0., 0., 1., 0., 0., 0.],
              [0., 1., 0., 1., 1., 0., 1., 1., 0., 0., 1., 0., 1.],
              [0., 0., 0., 0., 0., 0., 0., 0., 1., 0., 0., 1., 0.]])
      
    8. 打印结果

      print("词汇表: \n", word_index)
      print("文本: \n", texts)
      print("分词结果: \n", tokenized_texts)
      print("文本序列: \n", sequences)
      print("One-Hot编码: \n", one_hot_results)
      

      操作:打印出词汇表、原文本、分词结果、文本序列和one-hot编码。

    9. 总结
      这段代码的核心功能是将中文文本分词后,生成相应的整数序列,再转换为one-hot编码。每一步操作后数据的状态如下:

    • texts:包含原始文本的列表。
    • tokenized_texts:包含分词后的文本列表。
    • word_indexindex_word:分别存储单词到索引和索引到单词的映射字典。
    • sequences:包含整数序列的列表。
    • one_hot_results:包含one-hot编码的二维张量。

    2.直接使用词袋模型(CountVectorizer)实现独热编码

    import torch
    import torch.nn.functional as F
    import jieba
    from sklearn.feature_extraction.text import CountVectorizer
    import re
    
    # 示例中文文本
    texts = ['你好,最近怎么样?','我过的很好,谢谢!','再见。']
    
    # 使用结巴分词进行分词,并移除标点符号 
    tokenized_texts = [' '.join(re.findall(r'\w+', ' '.join(jieba.cut(text)))) for text in texts] # 结果:['你好 最近 怎么样', '我 过 的 很好 谢谢', '再见']
    
    
    """
    注意此处代码和上述代码不一致的原因是:
    
    CountVectorizer 期望接收的输入是一个字符串列表,但我们提供了一个分词后的列表列表。
    为了使用 CountVectorizer 并确保标点符号被移除,我们需要确保输入是字符串而不是分词后的列表。
    """
    
    # cv = CountVectorizer() # 创建词袋数据结构
    cv = CountVectorizer(token_pattern=r"(?u)\b[\u4e00-\u9fa5a-zA-Z]+\b")  # 仅匹配中文字符和英文单词
    
    cv_fit = cv.fit_transform(tokenized_texts)  # CountVectorizer 用于将文本转换为词袋模型。fit_transform 方法同时完成拟合模型和将文本转化为特征向量的操作。
    
    # 将词频矩阵转换为 tensor
    tensor_result = torch.from_numpy(cv_fit.toarray()).float()
    
    print("文本: \n",texts)
    print("分词结果: \n",tokenized_texts)
    print("列表形式的字典: \n",cv.get_feature_names_out())    #列表形式呈现文章生成的词典,和鲸线上需要使用get_feature_names()
    print("字典: \n",cv.vocabulary_)       #字典形式呈现,key:词,value:词id
    print("token计数矩阵:\n",cv_fit.toarray()) #.toarray() 将结果转化为稀疏矩阵 一行对应着一句话,一列对应一个词,列index对应词id
    print("词频矩阵的 tensor 表示:\n", tensor_result)
    
    文本: 
     ['你好,最近怎么样?', '我过的很好,谢谢!', '再见。']
    分词结果: 
     ['你好 最近 怎么样', '我过 的 很 好 谢谢', '再见']
    列表形式的字典: 
     ['你好' '再见' '好' '很' '怎么样' '我过' '最近' '的' '谢谢']
    字典: 
     {'你好': 0, '最近': 6, '怎么样': 4, '我过': 5, '的': 7, '很': 3, '好': 2, '谢谢': 8, '再见': 1}
    token计数矩阵:
     [[1 0 0 0 1 0 1 0 0]
     [0 0 1 1 0 1 0 1 1]
     [0 1 0 0 0 0 0 0 0]]
    词频矩阵的 tensor 表示:
     tensor([[1., 0., 0., 0., 1., 0., 1., 0., 0.],
            [0., 0., 1., 1., 0., 1., 0., 1., 1.],
            [0., 1., 0., 0., 0., 0., 0., 0., 0.]])
    
    
    
  • 相关阅读:
    逆向-beginners之函数指针
    关于OpenAI的Sora的基本介绍
    区块链技术的应用场景和优势
    8.1.9:Extreme Optimization Numerical Libraries for .NET
    [附源码]Python计算机毕业设计SSM科技项目在线评审系统(程序+LW)
    Jvm基础面试题
    什么测试自动化测试?
    axios介绍和使用
    菜菜学paddle第四篇:改进卷积神经网络构建手写数字识别
    [python] Python类型提示总结
  • 原文地址:https://blog.csdn.net/qq_33489955/article/details/139563477