"结巴" 中文分词
基于 Trie 树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG)
采用了动态规划查找最大概率路径,找出基于词频的最大切分组合
对于未登录词,采用了基于汉字成词能力的 HMM 模型,使用了 Viterbi 算法
jieba首页、文档和下载 - Python中文分词组件 - OSCHINA - 中文开源技术交流社区
jieba库(jieba库的介绍以及分词原理,jieba的三种模式和常用函数,利用Jieba模块进行中文词语的统计)_还是那个同伟伟的博客-CSDN博客_jieba
jieba基本使用过程_百木从森的博客-CSDN博客_jieba
cppjieba首页、文档和下载 - "结巴"中文分词的C++版本 - OSCHINA - 中文开源技术交流社区
GitHub - yanyiwu/cppjieba: "结巴"中文分词的C++版本
cppjieba分词学习笔记 - wxquare - 博客园
linux系统下结巴分词库(cppjieba)的下载和应用_尚庆龙的博客-CSDN博客_cppjieba