您的位置:首页 > 编程语言 > Python开发

【Python】用Python的“结巴”模块进行分词

2014-06-17 20:11 211 查看
之前都是用计算所的分词工具进行分词,效果不错但是比较麻烦,最近开始用Python的“结巴”模块进行分词,感觉非常方便。这里将我写的一些小程序分享给大家,希望对大家有所帮助。

下面这个程序是对一个文本文件里的内容进行分词的程序:test.py

#!/usr/bin/python
#-*- encoding:utf-8 -*-
import jieba                                                    #导入jieba模块

def splitSentence(inputFile, outputFile):
fin = open(inputFile, 'r')                                  #以读的方式打开文件
fout = open(outputFile, 'w')                                #以写得方式打开文件

for eachLine in fin:
line = eachLine.strip().decode('utf-8', 'ignore')       #去除每行首尾可能出现的空格,并转为Unicode进行处理
wordList = list(jieba.cut(line))                        #用结巴分词,对每行内容进行分词
outStr = ''
for word in wordList:
outStr += word
outStr += '/ '
fout.write(outStr.strip().encode('utf-8') + '\n')       #将分词好的结果写入到输出文件
fin.close()
fout.close()

splitSentence('myInput.txt', 'myOutput.txt')


写完程序之后,在Linux重点输入:python test.py即可运行程序进行分词。

输入的文件内容如下所示:



经过结巴分词后,输出结果如下所示:



注意:第11行的 jieba.cut()返回的结构是一个可迭代的generator,可以用list(jieba.cut(...))转化为list

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: