• pytorch复习笔记--nn.Embedding()的用法


    目录

    1--nn.Embedding()的用法

    2--实例展示:

    3--注意的问题


    1--nn.Embedding()的用法

    1. import torch.nn as nn
    2. embedding = nn.Embedding(num_embeddings = 10, embedding_dim = 256)

    nn.Embedding()产生一个权重矩阵weight,其shape为(num_embeddings, embedding_dim),表示生成num_embeddings个具有embedding_dim大小的嵌入向量;

    输入input的形状shape为(batch_size, Seq_len),batch_size表示样本数(NLP句子数),Seq_len表示序列的长度(每个句子单词个数);

    nn.Embedding(input)的输出output具有(batch_size,Seq_len,embedding_dim)的形状大小;

    2--实例展示:

    ① 代码:

    1. import torch
    2. import torch.nn as nn
    3. if __name__ == "__main__":
    4. input = torch.randint(low = 0, high = 5, size = (2, 9))
    5. input = torch.LongTensor(input)
    6. embedding = nn.Embedding(num_embeddings=6, embedding_dim = 3)
    7. output = embedding(input)
    8. print("input.shape:", input.shape) # (2, 9) 2个句子,9个单词
    9. print("embedding.shape:", embedding.weight.shape) # (6, 3)
    10. print("output.shape", output.shape) # (2, 9, 3) 2个句子,9个单词,每个单词用一个3维的向量表示
    11. print("input:", input)
    12. print("embedding:", embedding.weight)
    13. print("output:", output)
    14. print("All Done !")

    ② 分析:

    output = embedding(input) 的作用是将每个单词用一个 embedding_dim 大小的向量进行表示,所以对于一个(batch_size,Seq_len)的输入input来说,其输出 output 是一个(batch_size,Seq_len,embedding_dim)大小的 tensor。

    在选择 embedding_dim 大小的向量进行表示时,是根据每个单词的数据进行选择;例如在下图中,第一个句子中两个单词的数据表示均为 3(红框表示),则对应的index均为 4,都要选择embedding.weight 中 index 为 4(绿框表示)的嵌入向量进行表示,所以在最终的 output 中两个单词的嵌入向量是相同的(黄框表示)。

    3--注意的问题

    ① nn.Embedding() 的输入必须是 LongTensor 类型的张量;

    ② 在input输入中,数据大小(极差)不能超过 nn.Embedding() 初始化中 num_embeddings 的大小,即数据对应的 index 不能大于 num_embeddings;

  • 相关阅读:
    IE惯导数据紧组合处理过程与方法
    Spring AOP 详解
    如何使用Selenium进行自动化测试
    物联网安全挑战
    天津Java培训机构揭秘!Java到底能做什么?
    调优过程中缓存的处理
    接口查询优化:优雅的处理大批量数据及 in 超过 1000 问题
    论文笔记:HG-SL 面向假新闻早期发现的全局和本地用户传播行为联合学习
    大数据资料和开发工具
    drf从无到有学习Django Rest Framework框架——什么是DRF
  • 原文地址:https://blog.csdn.net/weixin_43863869/article/details/128200988