您的位置:首页 > 编程语言 > Python开发

[python] jieba 库 -- 给中文文本分词

2018-08-22 20:27 639 查看
在文本处理时,英文文本的分词一直比中文文本要好处理许多。因为英文文本只需要通过空格就可以分割,而中文的词语往往就很难从句子中分离出来。这种时候我们往往需要一个“词典”来实现分词,而寻找“词典”又是件非常麻烦的事。

不过, python 强大的第三方库中早有了解决方案。在 PyPI 上面搜索“中文分词”,第一个出现的就是 jieba 库。其实 jieba 库的官方文档已经足够详细了,所以这里就对其进行一定的精简,只介绍几个常用的函数。

1. 使用 pip 安装 jieba 库

在第一次使用时,我们需要先使用 pip 指令安装 jieba 这个第三方库:

pip install jieba

2. lcut() -- 最常用的分割模式

lcut()
这个函数只有简单的两个参数:
lcut(s, cut_all=False)
,而它在切分后会返回一个字符串。其中
s
是传入的中文字符串,而
cut_all
这个参数默认为
False
,默认为“精确模式”,而如果设置为
True
,就是“全模式”。那么这两个模式有什么区别呢?我们可以查看下官方文档中的示例:

import jieba

seg_list = jieba.lcut("我来到北京清华大学", cut_all=True)
print("Full Mode: " + "/ ".join(seg_list))  # 全模式

seg_list = jieba.lcut("我来到北京清华大学", cut_all=False)
print("Default Mode: " + "/ ".join(seg_list))  # 精确模式

Full Mode: 我/ 来到/ 北京/ 清华/ 清华大学/ 华大/ 大学
Default Mode: 我/ 来到/ 北京/ 清华大学

可以看到,精确模式下不会有重复的词,但是全模式虽然会有重复(歧义),但也在一定程度上可以避免精确分词时的失误。

但是,上面的切分方式虽然在日常做文本统计时足够使用,但是它却不适合搜索引擎使用。因为它的切分还包含了一些较长的词语,并没有对其进行继续的切分。这个时候我们就需要使用“搜索引擎模式”进行切分。

3. lcut_for_search() -- 搜索引擎模式

lcut_for_search()
这个函数一般在使用时只需要填写第一个参数,就是待分词的字符串。继续看官方文档的示例:

seg_list = jieba.lcut_for_search("小明硕士毕业于中国科学院计算所,后在日本京都大学深造")  # 搜索引擎模式
print(", ".join(seg_list))

分词的结果:

小明, 硕士, 毕业, 于, 中国, 科学, 学院, 科学院, 中国科学院, 计算, 计算所, 后, 在, 日本, 京都, 大学, 日本京都大学, 深造

这样分解之后的列表就比较适用于搜索引擎使用了。但是在统计时并不适合这样使用,因为会有重复,还会有歧义。

4. 为 jieba 设置多进程分词

并行分词并不适用于 Windows 平台,如果想要尝试的话可以使用 Linux 虚拟机

当文本较短时,分词所使用的时间还比较可观。但是当你从一个文件中读取一大串的文本时,处理的时间就会十分长。这种情况下 jieba 可以通过设置多进程的方式来并行分词。这样可以提高分词效率。

其中,我们可以通过
enable_parallel()
这个函数来开启多进程分词,而使用
disable_parallel()
可以关闭多进程。

jieba.enable_parallel(4) # 开启并行分词模式,参数为并行进程数
jieba.disable_parallel() # 关闭并行分词模式


在文本过短时,多进程反而会降低运行效率。所以一般只有在拆分大量文本时再使用并行分词

结语与其他文档

以上就介绍了 jieba 库的简单使用方法了,这样基本就能完成常用的分词操作。不过 jieba 库也支持自定义词典,如果你发现分词效果不够好,那么也可以查阅文档解决: Github - jieba
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  jieba Python