赞
踩
为了便于大家学习,项目开源地址如下,欢迎 fork+star 鼓励一下老马~
默认收集的敏感词字典,实际上有非常多的重复信息。
比如说:
兼职
兼!职
兼@职
兼#职
兼¥职
这种最核心的内容其实只有一个,如果将全部的停止词进行穷尽的话,将会使得敏感词构建的 Map 变得非常大,而且也没办法穷尽。
这种全部存储的方式非常的不灵活。
所以这一节将停止词作为单独的内容,进行相关的处理。
核心目的如下:
(1)为敏感词库瘦身
(2)为后期 stop-word 支持做好准备工作。
统一使用半角(默认的格式)处理。
过滤出所有的中文。-zh
持久化所有的符号 zchars
所有搜狗输入法对应的常见符号
停顿词可以不放在文件中,特殊符号直接定义为常亮即可,中文可以放在 txt 中。
特殊符号列表截断后直接放入进去,然后整体去重。
可以根据搜狗输入法,获取所有对应的信息。(常用的标点符号等等)
中文
符号
初期主要使用的是符号相关。
数字需要特殊处理。
数字提供一个类,单独处理。 (重要)
public static String nums1 = "⓪0零º₀⓿○" + "123456789" + "一二三四五六七八九" + "壹贰叁肆伍陆柒捌玖" + "¹²³⁴⁵⁶⁷⁸⁹" + "₁₂₃₄₅₆₇₈₉" + "①②③④⑤⑥⑦⑧⑨" + "⑴⑵⑶⑷⑸⑹⑺⑻⑼" + "⒈⒉⒊⒋⒌⒍⒎⒏⒐" + "❶❷❸❹❺❻❼❽❾" + "➀➁➂➃➄➅➆➇➈" + "➊➋➌➍➎➏➐➑➒" + "㈠㈡㈢㈣㈤㈥㈦㈧㈨" + "⓵⓶⓷⓸⓹⓺⓻⓼⓽" + "㊀㊁㊂㊃㊄㊅㊆㊇㊈"; public static String nums2 = "0000000"+ "123456789" + "123456789" + "123456789" + "123456789" + "123456789" + "123456789" + "123456789" + "123456789" + "123456789" + "123456789" + "123456789" + "123456789" + "123456789" + "123456789" + "123456789" + "123456789" + "123456789" + "123456789" + "123456789";
清除所有停顿词(此处仅仅为特殊符号),第一次去重的结果
移除所有纯数字
移除所有纯网址
移除乱码文字(编码错乱导致)
你可以直接下载对应的信息,后面会简单介绍整体的数据获取流程。
全量停止词是很多地方都可以下载的,我主要想通过其获取自己想要的停止词。
希望通过细化,便于后期使用。
直接在 stopword.txt
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。