jieba源码解析(二):jieba.cut

前一章介绍了jieba分词之前关于前缀词典的构建,本章介绍jieba的主体:jieba.cut
jieba分词有三种模式:全模式、精确模式、搜索引擎模式。全模式和精确模式通过jieba.cut实现,搜索引擎模式对应cut_for_search,且三者均可以通过参数HMM决定是否使用新词识别功能。官方例子:

# encoding=utf-8
import jieba

seg_list = jieba.cut("我来到北京清华大学", cut_all=True)
print("Full Mode: " + "/ ".join(seg_list))  # 全模式
# 【全模式】: 我/ 来到/ 北京/ 清华/ 清华大学/ 华大/ 大学

seg_list = jieba.cut("我来到北京清华大学", cut_all=False)
print("Default Mode: " + "/ ".join(seg_list))  # 精确模式
# 【精确模式】: 我/ 来到/ 北京/ 清华大学

seg_list = jieba.cut("他来到了网易杭研大厦")  # 默认是精确模式
print(", ".join(seg_list))
# 【新词识别】:他, 来到, 了, 网易, 杭研, 大厦    (此处,“杭研”并没有在词典中,但是也被Viterbi算法识别出来了)

seg_list = jieba.cut_for_search("小明硕士毕业于中国科学院计算所,后在日本京都大学深造")  # 搜索引擎模式
print(", ".join(seg_list))
# 【搜索引擎模式】: 小明, 硕士, 毕业, 于, 中国, 科学, 学院, 科学院, 中国科学院, 计算, 计算所, 后, 在, 日本, 京都, 大学, 日本京都大学, 深造

jieba.cut

分词主体函数

def cut(self, sentence, cut_all=False, HMM=True):
        '''
        jieba分词主函数,返回generator
        参数:
            - sentence: 待切分文本.
            - cut_all: 切分模式. True 全模式, False 精确模式.
            - HMM: 是否使用隐式马尔科夫.
        '''
        sentence = strdecode(sentence)  # sentence转unicode

        if cut_all:
            # re_han_cut_all = re.compile("([\u4E00-\u9FD5]+)", re.U)   
            re_han = re_han_cut_all  
            # re_skip_cut_all = re.compile("[^a-zA-Z0-9+#\n]", re.U)  
            re_skip = re_skip_cut_all    
        else:
            # re_han_default = re.compile("([\u4E00-\u9FD5a-zA-Z0-9+#&\._%]+)", re.U)
            re_han = re_han_default                
            # re_skip_default = re.compile("(\r\n|\s)", re.U)
            re_skip = re_skip_default   

        if cut_all:   
            cut_block = self.__cut_all   # cut_all=True, HMM=True or False
        elif HMM:
            cut_block = self.__cut_DAG   # cut_all=False, HMM=True
        else:
            cut_block = self.__cut_DAG_NO_HMM   # cut_all=False, HMM=False
        blocks = re_han.split(sentence)
        for blk in blocks:
            if not blk:
                continue
            if re_han.match(blk):    #  符合re_han匹配的串
                for word in cut_block(blk):
                    yield word
            else:
                tmp = re_skip.split(blk)
                for x in tmp:
                    if re_skip.match(x):
                        yield x
                    elif not cut_all:
                        for xx in x:
                            yield xx
                    else:
                        yield x

可以看出jieba.cut返回一个可迭代的generator,可以使用 for 循环来获得分词后得到的每一个词语(也可以用jieba.lcut直接返回分词list结果)。

  • cut_all=True, HMM=_对应于全模式,即所有在词典中出现的词都会被切分出来,实现函数为__cut_all;
  • cut_all=False, HMM=False对应于精确模式且不使用HMM;按Unigram语法模型找出联合概率最大的分词组合,实现函数为__cut_DAG;
  • cut_all=False, HMM=True对应于精确模式且使用HMM;在联合概率最大的分词组合的基础上,HMM识别未登录词,实现函数为__cut_DAG_NO_HMM。

def __cut_DAG_NO_HMM(self, sentence):
    DAG = self.get_DAG(sentence)   # 构建有向无环图
    route = {}
    self.calc(sentence, DAG, route)   # 动态规划计算最短路
    x = 0
    N = len(sentence)
    buf = ''
    while x < N:
        y = route[x][1] + 1
        l_word = sentence[x:y]
        if re_eng.match(l_word) and len(l_word) == 1:
            buf += l_word
            x = y
        else:
            if buf:
                yield buf
                buf = ''
            yield l_word
            x = y
    if buf:
        yield buf
        buf = ''

猜你喜欢

转载自www.cnblogs.com/aloiswei/p/11567616.html