• 【汇总】nltk相关资源包无法下载报错问题


    1. LookupError:
    2. **********************************************************************
    3. Resource xxx not found.
    4. Please use the NLTK Downloader to obtain the resource:
    5. >>> import nltk
    6. >>> nltk.download('xxx')

    因为一些原因,下载不了nltk的相关数据,这个时候可以手工导入所需的资源

    0. 相关语料数据

    我收集了四份资源分别是punk,omw-1.4,stopwords,wordnet

    下载链接

    1. word_tokenize相关

    1.1 报错代码

    1. from nltk.tokenize import word_tokenize
    2. a = "hello, world!"
    3. print(word_tokenize(a))

    1.2 报错信息

    缺失punkt。这里我的环境是ubuntu中的miniconda下的tf,我的用户名是username。我选择了下面搜索路径中的第二条路径,实际可以结合自身情况修改。

    1. LookupError:
    2. **********************************************************************
    3. Resource punkt not found.
    4. Please use the NLTK Downloader to obtain the resource:
    5. >>> import nltk
    6. >>> nltk.download('punkt')
    7. For more information see: https://www.nltk.org/data.html
    8. Attempted to load tokenizers/punkt/PY3/english.pickle
    9. Searched in:
    10. - '/home/username/nltk_data'
    11. - '/home/username/miniconda3/envs/tf/nltk_data'
    12. - '/home/username/miniconda3/envs/tf/share/nltk_data'
    13. - '/home/username/miniconda3/envs/tf/lib/nltk_data'
    14. - '/usr/share/nltk_data'
    15. - '/usr/local/share/nltk_data'
    16. - '/usr/lib/nltk_data'
    17. - '/usr/local/lib/nltk_data'
    18. - ''
    19. **********************************************************************

    1.3 解决方法

    在相应的环境下(这里我的环境是tf)创建nltk_data文件夹,并在下面创建tokenizers文件夹,再将punkt文件夹放入。最终路径为(我选择了搜索路径中的第二条路径,实际可以结合自身情况修改)

    /home/username/miniconda/envs/tf/nltk_data/tokenizers/punkt

    2. lemmatize相关

    2.1 报错代码

    1. from nltk.stem.wordnet import WordNetLemmatizer
    2. stem_wordnet = WordNetLemmatizer()
    3. print(stem_wordnet.lemmatize("goes"))

    2.2 报错信息

    缺失wordnet。这里我的环境是ubuntu中的miniconda下的tf,我的用户名是username。

    1. LookupError:
    2. **********************************************************************
    3. Resource wordnet not found.
    4. Please use the NLTK Downloader to obtain the resource:
    5. >>> import nltk
    6. >>> nltk.download('wordnet')
    7. For more information see: https://www.nltk.org/data.html
    8. Attempted to load corpora/wordnet
    9. Searched in:
    10. - '/home/username/nltk_data'
    11. - '/home/username/miniconda3/envs/tf/nltk_data'
    12. - '/home/username/miniconda3/envs/tf/share/nltk_data'
    13. - '/home/username/miniconda3/envs/tf/lib/nltk_data'
    14. - '/usr/share/nltk_data'
    15. - '/usr/local/share/nltk_data'
    16. - '/usr/lib/nltk_data'
    17. - '/usr/local/lib/nltk_data'
    18. **********************************************************************

    缺失omw-1.4。这里我的环境是ubuntu中的miniconda下的tf,我的用户名是username。

    1. LookupError:
    2. **********************************************************************
    3. Resource omw-1.4 not found.
    4. Please use the NLTK Downloader to obtain the resource:
    5. >>> import nltk
    6. >>> nltk.download('omw-1.4')
    7. For more information see: https://www.nltk.org/data.html
    8. Attempted to load corpora/omw-1.4
    9. Searched in:
    10. - '/home/username/nltk_data'
    11. - '/home/username/miniconda3/envs/tf/nltk_data'
    12. - '/home/username/miniconda3/envs/tf/share/nltk_data'
    13. - '/home/username/miniconda3/envs/tf/lib/nltk_data'
    14. - '/usr/share/nltk_data'
    15. - '/usr/local/share/nltk_data'
    16. - '/usr/lib/nltk_data'
    17. - '/usr/local/lib/nltk_data'
    18. **********************************************************************

    2.3 解决方法

    在相应的环境下(这里我的环境是tf)创建nltk_data文件夹,并在下面创建corpora文件夹,再将wordnet和omw-1.4文件夹放入。最终路径为(我选择了搜索路径中的第二条路径,实际可以结合自身情况修改)

    /home/username/miniconda/envs/tf/nltk_data/corpora/wordnet
    /home/username/miniconda/envs/tf/nltk_data/corpora/omw-1.4

    3. stopwords相关

    3.1 报错代码

    1. from nltk.corpus import stopwords
    2. stop_words = set(stopwords.words('english'))

    3.2 报错信息

    缺失stopwords。这里我的环境是ubuntu中的miniconda下的tf,我的用户名是username。

    1. LookupError:
    2. **********************************************************************
    3. Resource stopwords not found.
    4. Please use the NLTK Downloader to obtain the resource:
    5. >>> import nltk
    6. >>> nltk.download('stopwords')
    7. For more information see: https://www.nltk.org/data.html
    8. Attempted to load corpora/stopwords
    9. Searched in:
    10. - '/home/username/nltk_data'
    11. - '/home/username/miniconda3/envs/tf/nltk_data'
    12. - '/home/username/miniconda3/envs/tf/share/nltk_data'
    13. - '/home/username/miniconda3/envs/tf/lib/nltk_data'
    14. - '/usr/share/nltk_data'
    15. - '/usr/local/share/nltk_data'
    16. - '/usr/lib/nltk_data'
    17. - '/usr/local/lib/nltk_data'
    18. **********************************************************************

    3.3 解决方法

    在相应的环境下(这里我的环境是tf)创建nltk_data文件夹,并在下面创建corpora文件夹,再将stopwords文件夹放入。最终路径为(我选择了搜索路径中的第二条路径,实际可以结合自身情况修改)

    /home/username/miniconda/envs/tf/nltk_data/corpora/stopwords

  • 相关阅读:
    HTML+CSS+JS制作结婚邀请函代码(程序员专属情人节表白网站)
    哈希(哈希散列数据结构)---底层原理
    深入解析:数据库连接池的必要性与优化策略
    【C/C++笔试练习】——数组名和&数组名、switch循环语句、数据在计算机中的存储顺序、字符串中找出连续最长的数字串、数组中出现次数超过一半的数字
    策略验证_卖出口诀_长箭射天股价落地
    【深入浅出玩转FPGA学习14----------测试用例设计2】
    vim命令编辑完文件后,按ESC键退出编辑模式,无法进入命令模式解决方案
    【0227】smgr设计机制之新建一个磁盘表文件
    RocketMq消息中间件测试实战-消息重复如何测试
    arm deb包下载地址
  • 原文地址:https://blog.csdn.net/qq_42276781/article/details/127951032