赞
踩
采用了特有的“正向迭代最细粒度切分算法”,具有60万字/秒的高速处理能力。
采用了多子处理器分析模式,支持:英文字母(IP地址、Email、URL)、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理。
优化的词典存储,更小的内存占用。支持用户词典扩展定义。
针对Lucene全文检索优化的查询分析器IKQueryParser,采用歧义分析算法优化查询关键字的搜索排列组合,能极大的提高Lucene检索的命中率。
在出现连词时,不是顺序取词,而是取最后的词,如:“流体用”,(词典有‘流体’和‘体用’)本应该分为“流体 | 用”,而IK却分成了“流 | 体用”。
高扩展性:能非常方便的扩充字典,也可以非常方便的添加停用词。
效率极高-极高效率的字典查找算法;尽量避免无谓试探查找。
算法简练-简单易理解的算法,但效率却是非常高效的。
轻松支持最大/最小切词。
分词精确度不好,涉及了汉语语义的问题,几乎不可完全解决。如:“和服”实例。
(评估:二者的分词方式很相近; 且对未登录词都是采用二元分词。)
采用 “正向迭代最细粒度切分算法”细粒度全切分,对于不在词典中的词进行二元分词;多子处理器分析模式。
三个分词器:CJKSegmenter(中文分词),CN_QuantifierSegmenter(数量词分词),LetterSegmenter(字母分词)。
有两种分词模式:细粒度分词和智能分词。
细粒度全切分,对于不在词典中的词进行二元分词;
使用不同的 Knife(主要为CJKKnife、LetterKnife和NumberKnife) 切不同类型的流,不算很复杂。
有两种分词模式:most-words(最大词量分词方式)和max-word-length(按词在词典中的原序来进行编译,基本不再做其他处理)。
max-word-length此种分词模式还有问题(不能加载所有数据),未能解决。
细粒度分词
IK分词是“正向迭代最细粒度切分算法”,故它是从开始以循序分词。
而Paoding分词虽然也是正向分词(迭代器来进行的缓存),但是它是贪婪的切词,就是说找到一个词后,继续往下找,找到以这个字开头的所有词为止。
粗粒度分词
二者的粗粒度的结果是一样的,都是取最大词。
例句:“圆柱滚子轴承 N313EM-P4 SKF -- 流体用冷不锈钢无缝钢管 22*3 316L -- 45°无缝弯头 DN200 8mm 20# 219 1.5D -- 无缝等径三通 DN250 7mm 20# GB/T12459”
IK细粒度分词效果:
圆柱|滚子|滚|子|轴承|n313em-p4|n|313|em|p|4|skf
IK智能分词效果:
圆柱|滚子|轴承|n313em-p4|skf
Paoding细粒度分词效果:
圆柱|滚子|轴承|n|313|em|p|4|p4|em-p4|313em-p4|n313em-p4|skf
圆柱|滚|滚子|轴承|n|313|em|p|4|p4|em-p4|313em-p4|n313em-p4|skf|
Paoding粗粒度分词效果:
圆柱|滚子|轴承|n313em-p4|skf
出处:http://my.oschina.net/MrMichael/blog/361899
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。