当前位置:   article > 正文

python中文单词统计_python实现统计汉字/英文单词数的正则表达式

python 中文单词 正则

思路

•使用正则式 "(?x) (?: [\w-]+ | [\x80-\xff]{3} )"获得utf-8文档中的英文单词和汉字的列表。

•使用dictionary来记录每个单词/汉字出现的频率,如果出现过则+1,如果没出现则置1。

•将dictionary按照value排序,输出。

源码

#!/usr/bin/python

# -*- coding: utf-8 -*-

#

#author: rex

#blog: http://iregex.org

#filename counter.py

#created: mon sep 20 21:00:52 2010

#desc: convert .py file to html with vim.

import sys

import re

from operator import itemgetter

def readfile(f):

with file(f,"r") as pfile:

return pfile.read()

def divide(c, regex):

#the regex below is only valid for utf8 coding

return regex.findall(c)

def update_dict(di,li):

for i in li:

if di.has_key(i):

di[i]+=1

else:

di[i]=1

return di

def main():

#receive files from bash

files=sys.argv[1:]

#regex compile only once

regex=re.compile("(?x) (?: [\w-]+ | [\x80-\xff]{3} )")

dict={}

#get all words from files

for f in files:

words=divide(readfile(f), regex)

dict=update_dict(dict, words)

#sort dictionary by value

#dict is now a list.

dict=sorted(dict.items(), key=itemgetter(1), reverse=true)

#output to standard-output

for i in dict:

print i[0], i[1]

if __name__=='__main__':

main()

tips

由于使用了files=sys.argv[1:] 来接收参数,因此./counter.py file1 file2 ...可以将参数指定的文件的词频累加计算输出。

可以自定义该程序。例如,

•使用

regex=re.compile("(?x) ( [\w-]+ | [\x80-\xff]{3} )")

words=[w for w in regex.split(line) if w]

这样得到的列表是包含分隔符在内的单词列表,方便于以后对全文分词再做操作。

•以行为单位处理文件,而不是将整个文件读入内存,在处理大文件时可以节约内存。

•可以使用这样的正则表达式先对整个文件预处理一下,去掉可能的html tags: content=re.sub(r"]+","",content),这样的结果对于某些文档更精确。

希望与广大网友互动??

点此进行留言吧!

本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号