当前位置:   article > 正文

使用Stanford Word Segmenter and Stanford Named Entity Recognizer (NER)实现中文命名实体识别_standord ner 示例代码

standord ner 示例代码

一、分词介绍

斯坦福大学的分词器,该系统需要JDK 1.8+,从上面链接中下载stanford-segmenter-2014-10-26,解压之后,如下图所示
,进入data目录,其中有两个gz压缩文件,分别是ctb.gz和pku.gz,其中 CTB:宾州大学的中国树库训练资料 , PKU:中国北京大学提供的训练资料。当然了,你也可以自己训练,一个训练的例子可以在这里面看到 http://nlp.stanford.edu/software/trainSegmenter-20080521.tar.gz

二、NER介绍

斯坦福NER是采用Java实现,可以识别出(PERSON,ORGANIZATION,LOCATION),使用本软件发表的研究成果需引用下述论文:
Jenny Rose Finkel, Trond Grenager, and Christopher Manning. 2005. Incorporating Non-local Information into Information Extraction Systems by Gibbs Sampling. Proceedings of the 43nd Annual Meeting of the Association for Computational Linguistics (ACL 2005), pp. 363-370. 
下载地址在:
http://nlp.sta nford.edu/~manning/papers/gibbscrf3.pdf
在NER页面可以下载到两个压缩文件,分别是stanford-ner-2014-10-26和stanford-ner-2012-11-11-chinese
将两个文件解压可看到
,默认NER可以用来处理英文,如果需要处理中文要另外处理。

Included with Stanford NER are a 4 class model trained for CoNLL, a 7 class model trained for MUC, and a 3 class model trained on both data sets for the intersection of those class sets.

3 class: Location, Person, Organization
4 class: Location, Person, Organization, Misc
7 class: Time, Location, Organization, Person, Money, Percent, Date
如上图可以看到针对英文提供了3class、4class、7class, http://nlp.stanford.edu:8080/ner/ 但是中文并没有,这是一个在线演示的地址,可以上去瞧瞧 。

、分词和NER使用

在Eclipse中新建一个Java Project,将data目录拷贝到项目根路径下, 再把stanford-ner-2012-11-11-chinese解压的内容全部拷贝到classifiers文件夹下将stanford-segmenter-3.5.0加入到classpath之中, classifiers文件夹拷贝到项目根目录,将stanford-ner-3.5.0.jar和stanford-ner.jar加入到classpath中。最后,去 http://nlp.stanford.edu/software/corenlp.shtml下载stanford-corenlp-full-2014-10-31,将解压之后的stanford-corenlp-3.5.0也加入到classpath之中。最后的Eclipse中结构如下:
根据
We also provide Chinese models built from the Ontonotes Chinese named entity data. There are two models, one using distributional similarity clusters and one without. These are designed to be run on  word-segmented Chinese . So, if you want to use these on normal Chinese text, you will first need to run  Stanford Word Segmenter  or some other Chinese word segmenter, and then run NER on the output of that! 
这段说明,很清晰,需要将中文分词的结果作为NER的输入,然后才能识别出NER来。
同时便于测试,本Demo使用junit-4.10.jar,下面开始上代码
  1. import edu.stanford.nlp.ie.AbstractSequenceClassifier;
  2. import edu.stanford.nlp.ie.crf.CRFClassifier;
  3. import edu.stanford.nlp.ling.CoreLabel;
  4. /**
  5. *
  6. * <p>
  7. * ClassName ExtractDemo
  8. * </p>
  9. * <p>
  10. * Description 加载NER模块
  11. * </p>
  12. *
  13. * @author wangxu wangx89@126.com
  14. * <p>
  15. * Date 2015年1月8日 下午2:53:45
  16. * </p>
  17. * @version V1.0.0
  18. *
  19. */
  20. public class ExtractDemo {
  21. private static AbstractSequenceClassifier<CoreLabel> ner;
  22. public ExtractDemo() {
  23. InitNer();
  24. }
  25. public void InitNer() {
  26. String serializedClassifier = "classifiers/chinese.misc.distsim.crf.ser.gz"; // chinese.misc.distsim.crf.ser.gz
  27. if (ner == null) {
  28. ner = CRFClassifier.getClassifierNoExceptions(serializedClassifier);
  29. }
  30. }
  31. public String doNer(String sent) {
  32. return ner.classifyWithInlineXML(sent);
  33. }
  34. public static void main(String args[]) {
  35. String str = "我 去 吃饭 , 告诉 李强 一声 。";
  36. ExtractDemo extractDemo = new ExtractDemo();
  37. System.out.println(extractDemo.doNer(str));
  38. System.out.println("Complete!");
  39. }
  40. }
  1. import java.io.File;
  2. import java.io.IOException;
  3. import java.util.Properties;
  4. import org.apache.commons.io.FileUtils;
  5. import edu.stanford.nlp.ie.crf.CRFClassifier;
  6. import edu.stanford.nlp.ling.CoreLabel;
  7. /**
  8. *
  9. * <p>
  10. * ClassName ZH_SegDemo
  11. * </p>
  12. * <p>
  13. * Description 使用Stanford CoreNLP进行中文分词
  14. * </p>
  15. *
  16. * @author wangxu wangx89@126.com
  17. * <p>
  18. * Date 2015年1月8日 下午1:56:54
  19. * </p>
  20. * @version V1.0.0
  21. *
  22. */
  23. public class ZH_SegDemo {
  24. public static CRFClassifier<CoreLabel> segmenter;
  25. static {
  26. // 设置一些初始化参数
  27. Properties props = new Properties();
  28. props.setProperty("sighanCorporaDict", "data");
  29. props.setProperty("serDictionary", "data/dict-chris6.ser.gz");
  30. props.setProperty("inputEncoding", "UTF-8");
  31. props.setProperty("sighanPostProcessing", "true");
  32. segmenter = new CRFClassifier<CoreLabel>(props);
  33. segmenter.loadClassifierNoExceptions("data/ctb.gz", props);
  34. segmenter.flags.setProperties(props);
  35. }
  36. public static String doSegment(String sent) {
  37. String[] strs = (String[]) segmenter.segmentString(sent).toArray();
  38. StringBuffer buf = new StringBuffer();
  39. for (String s : strs) {
  40. buf.append(s + " ");
  41. }
  42. System.out.println("segmented res: " + buf.toString());
  43. return buf.toString();
  44. }
  45. public static void main(String[] args) {
  46. try {
  47. String readFileToString = FileUtils.readFileToString(new File("澳门141人食物中毒与进食“问题生蚝”有关.txt"));
  48. String doSegment = doSegment(readFileToString);
  49. System.out.println(doSegment);
  50. ExtractDemo extractDemo = new ExtractDemo();
  51. System.out.println(extractDemo.doNer(doSegment));
  52. System.out.println("Complete!");
  53. } catch (IOException e) {
  54. e.printStackTrace();
  55. }
  56. }
  57. }
注意一定是JDK 1.8+的环境,最后输出结果如下
loading dictionaries from data/dict-chris6.ser.gz...Done. Unique words in ChineseDictionary is: 423200
done [23.2 sec].
serDictionary=data/dict-chris6.ser.gz
sighanCorporaDict=data
inputEncoding=UTF-8
sighanPostProcessing=true
INFO: TagAffixDetector: useChPos=false | useCTBChar2=true | usePKChar2=false
INFO: TagAffixDetector: building TagAffixDetector from data/dict/character_list and data/dict/in.ctb
Loading character dictionary file from data/dict/character_list
Loading affix dictionary from data/dict/in.ctb
segmented res: 2008年 9月 9日    新华网 9月 8日 信息 : ( 记者 张家伟 ) 澳门 特区 政府 卫生局 疾病 预防 及 控制 中心 8 日 表示 , 目前 累计 有 141 人 在 本地 自助 餐厅 进食 后 出现 食物 中毒 症状 , 其中 大部分 与 进食 “ 问题 生蚝 ” 有关 。    卫生局 最早 在 3 日 公布 说 , 有 14 名 来自 三 个 群体 的 港 澳 人士 8月 27日 至 30日 期间 在 澳门 金沙 酒店 用 餐后 出现 不适 , 患者 陆续 出现 发热 、 呕吐 和 腹泻 等类 诺沃克 样 病毒 感染 的 症状 。 初步 调查 显示 , “ 上述 情况 可能 和 进食 生蚝 有关 ” 。
2008年 9月 9日    新华网 9月 8日 信息 : ( 记者 张家伟 ) 澳门 特区 政府 卫生局 疾病 预防 及 控制 中心 8 日 表示 , 目前 累计 有 141 人 在 本地 自助 餐厅 进食 后 出现 食物 中毒 症状 , 其中 大部分 与 进食 “ 问题 生蚝 ” 有关 。    卫生局 最早 在 3 日 公布 说 , 有 14 名 来自 三 个 群体 的 港 澳 人士 8月 27日 至 30日 期间 在 澳门 金沙 酒店 用 餐后 出现 不适 , 患者 陆续 出现 发热 、 呕吐 和 腹泻 等类 诺沃克 样 病毒 感染 的 症状 。 初步 调查 显示 , “ 上述 情况 可能 和 进食 生蚝 有关 ” 。
Loading classifier from E:\workspaces\EclipseEE4.4\aaaaaa\classifiers\chinese.misc.distsim.crf.ser.gz ... done [6.8 sec].
<MISC>2008年 9月 9日    新华网 9月 8日</MISC> 信息 : ( 记者 <PERSON>张家伟</PERSON> ) <GPE>澳门</GPE> <LOC>特区</LOC> <ORG>政府 卫生局 疾病 预防 及 控制 中心</ORG> <MISC>8 日</MISC> 表示 , 目前 累计 有 141 人 在 本地 自助 餐厅 进食 后 出现 食物 中毒 症状 , 其中 大部分 与 进食 “ 问题 生蚝 ” 有关 。    <ORG>卫生局</ORG> 最早 在 3 日 公布 说 , 有 14 名 来自 <MISC>三</MISC> 个 群体 的 <GPE>港 澳</GPE> 人士 <MISC>8月 27日 至 30日</MISC> 期间 在 <GPE>澳门</GPE> 金沙 酒店 用 餐后 出现 不适 , 患者 陆续 出现 发热 、 呕吐 和 腹泻 等类 诺沃克 样 病毒 感染 的 症状 。 初步 调查 显示 , “ 上述 情况 可能 和 进食 生蚝 有关 ” 。
Complete!
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Gausst松鼠会/article/detail/610060
推荐阅读
相关标签
  

闽ICP备14008679号