jiaba中文分词官方文档入门到进阶。
三种分词模式
精确模式,试图将句子最精确地切开,适合文本分析;
全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;
搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。
主要功能
分词
jieba.cut
接受三个输入参数: 需要分词的字符串;cut_all 控制是否采用全模式;HMM 控制是否使用 HMM 模型。
jieba.cut_for_search
方法接受两个参数:需要分词的字符串;是否使用 HMM 模型。该方法适合用于搜索引擎构建倒排索引的分词,粒度比较细。
- jieba.cut 以及 jieba.cut_for_search 返回的结构都是一个可迭代的 generator,可以使用 for 循环来获得分词后得到的每一个词语(unicode)
- 用jieba.lcut 以及 jieba.lcut_for_search 直接返回 list
jieba.Tokenizer(dictionary=DEFAULT_DICT)
新建自定义分词器,可用于同时使用不同词典。jieba.dt
为默认分词器,所有全局分词相关函数都是该分词器的映射。
1 | # -*- coding: utf-8 -*- |
输出结果:
1 | Building prefix dict from the default dictionary ... |
添加自定义词典
载入词典
- 用法: jieba.load_userdict(file_name) # file_name 为文件类对象或自定义词典的路径
词典格式和
dict.txt
一样,一个词占一行;每一行分三部分,用空格隔开,顺序不可颠倒。词语 词频(可省略) 词性(可省略)
词典举例:
1 | # filename: userdict.txt |
本文作者:
Yao Zhu
发布时间: 2019-08-07
最后更新: 2019-11-18
本文链接: https://juoyo.github.io/posts/78cc9031.html
版权声明: 本作品采用 知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议 进行许可。转载请注明出处!
发布时间: 2019-08-07
最后更新: 2019-11-18
本文链接: https://juoyo.github.io/posts/78cc9031.html
版权声明: 本作品采用 知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议 进行许可。转载请注明出处!