- ubuntu12.04环境下使用kvm ioctl接口实现最简单的虚拟机
- Ubuntu 通过无线网络安装Ubuntu Server启动系统后连接无线网络的方法
- 在Ubuntu上搭建网桥的方法
- ubuntu 虚拟机上网方式及相关配置详解
CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.
这篇CFSDN的博客文章Java实现DFA算法对敏感词、广告词过滤功能示例由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.
1、前言 。
开发中经常要处理用户一些文字的提交,所以涉及到了敏感词过滤的功能,参考资料中dfa有穷状态机算法的实现,创建有向图。完成了对敏感词、广告词的过滤,而且效率较好,所以分享一下.
具体实现:
1、匹配大小写过滤 2、匹配全角半角过滤 3、匹配过滤停顿词过滤。 4、敏感词重复词过滤.
例如:
支持如下类型类型过滤检测:
fuck 全小写 。
fuck 大小写 。
fuck全角半角 。
f!!!u&c ###k 停顿词 。
fffuuuucccckkk 重复词 。
敏感词过滤的做法有很多,我简单描述我现在理解的几种:
①查询数据库当中的敏感词,循环每一个敏感词,然后去输入的文本中从头到尾搜索一遍,看是否存在此敏感词,有则做相 。
应的处理,这种方式讲白了就是找到一个处理一个.
优点:so easy。用java代码实现基本没什么难度.
缺点:这效率让我心中奔过十万匹草泥马,而且匹配的是不是有些蛋疼,如果是英文时你会发现一个很无语的事情,比如英文 。
a是敏感词,那我如果是一篇英文文档,那程序它妹的得处理多少次敏感词?谁能告诉我?
②传说中的dfa算法(有穷自动机),也正是我要给大家分享的,毕竟感觉比较通用,算法的原理希望大家能够自己去网上查查 。
资料,这里就不详细说明了.
优点:至少比上面那sb效率高点.
缺点:对于学过算法的应该不难,对于没学过算法的用起来也不难,就是理解起来有点gg疼,匹配效率也不高,比较耗费内存, 。
敏感词越多,内存占用的就越大.
③第三种在这里要特别说明一下,那就是你自己去写一个算法吧,或者在现有的算法的基础上去优化,这也是小alan追求的至 。
高境界之一,如果哪位淫兄有自己的想法一定别忘了小alan,可以加小alan的qq:810104041教小alan两招耍耍.
2、代码实现 。
其目录结构如下:
其中resources资源目录中:
stopwd.txt :停顿词,匹配时间直接过滤.
wd.txt:敏感词库.
1、wordfilter敏感词过滤类 。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
|
package
org.andy.sensitivewdfilter;
import
java.io.bufferedreader;
import
java.io.ioexception;
import
java.io.inputstreamreader;
import
java.util.arraylist;
import
java.util.hashmap;
import
java.util.hashset;
import
java.util.list;
import
java.util.map;
import
java.util.set;
import
org.andy.sensitivewdfilter.util.bcconvert;
/**
* 创建时间:2016年8月30日 下午3:01:12
*
* 思路: 创建一个filterset,枚举了0~65535的所有char是否是某个敏感词开头的状态
*
* 判断是否是 敏感词开头 | | 是 不是 获取头节点 ok--下一个字 然后逐级遍历,dfa算法
*
* @author andy
* @version 2.2
*/
public
class
wordfilter {
private
static
final
filterset set =
new
filterset();
// 存储首字
private
static
final
map<integer, wordnode> nodes =
new
hashmap<integer, wordnode>(
1024
,
1
);
// 存储节点
private
static
final
set<integer> stopwdset =
new
hashset<>();
// 停顿词
private
static
final
char
sign =
'*'
;
// 敏感词过滤替换
static
{
try
{
long
a = system.nanotime();
init();
a = system.nanotime() - a;
system.out.println(
"加载时间 : "
+ a +
"ns"
);
system.out.println(
"加载时间 : "
+ a /
1000000
+
"ms"
);
}
catch
(exception e) {
throw
new
runtimeexception(
"初始化过滤器失败"
);
}
}
private
static
void
init() {
// 获取敏感词
addsensitiveword(readwordfromfile(
"wd.txt"
));
addstopword(readwordfromfile(
"stopwd.txt"
));
}
/**
* 增加敏感词
* @param path
* @return
*/
private
static
list<string> readwordfromfile(string path) {
list<string> words;
bufferedreader br =
null
;
try
{
br =
new
bufferedreader(
new
inputstreamreader(wordfilter.
class
.getclassloader().getresourceasstream(path)));
words =
new
arraylist<string>(
1200
);
for
(string buf =
""
; (buf = br.readline()) !=
null
;) {
if
(buf ==
null
|| buf.trim().equals(
""
))
continue
;
words.add(buf);
}
}
catch
(exception e) {
throw
new
runtimeexception(e);
}
finally
{
try
{
if
(br !=
null
)
br.close();
}
catch
(ioexception e) {
}
}
return
words;
}
/**
* 增加停顿词
*
* @param words
*/
private
static
void
addstopword(
final
list<string> words) {
if
(words !=
null
&& words.size() >
0
) {
char
[] chs;
for
(string curr : words) {
chs = curr.tochararray();
for
(
char
c : chs) {
stopwdset.add(charconvert(c));
}
}
}
}
/**
* 添加dfa节点
* @param words
*/
private
static
void
addsensitiveword(
final
list<string> words) {
if
(words !=
null
&& words.size() >
0
) {
char
[] chs;
int
fchar;
int
lastindex;
wordnode fnode;
// 首字母节点
for
(string curr : words) {
chs = curr.tochararray();
fchar = charconvert(chs[
0
]);
if
(!set.contains(fchar)) {
// 没有首字定义
set.add(fchar);
// 首字标志位 可重复add,反正判断了,不重复了
fnode =
new
wordnode(fchar, chs.length ==
1
);
nodes.put(fchar, fnode);
}
else
{
fnode = nodes.get(fchar);
if
(!fnode.islast() && chs.length ==
1
)
fnode.setlast(
true
);
}
lastindex = chs.length -
1
;
for
(
int
i =
1
; i < chs.length; i++) {
fnode = fnode.addifnoexist(charconvert(chs[i]), i == lastindex);
}
}
}
}
/**
* 过滤判断 将敏感词转化为成屏蔽词
* @param src
* @return
*/
public
static
final
string dofilter(
final
string src) {
char
[] chs = src.tochararray();
int
length = chs.length;
int
currc;
int
k;
wordnode node;
for
(
int
i =
0
; i < length; i++) {
currc = charconvert(chs[i]);
if
(!set.contains(currc)) {
continue
;
}
node = nodes.get(currc);
// 日 2
if
(node ==
null
)
// 其实不会发生,习惯性写上了
continue
;
boolean
couldmark =
false
;
int
marknum = -
1
;
if
(node.islast()) {
// 单字匹配(日)
couldmark =
true
;
marknum =
0
;
}
// 继续匹配(日你/日你妹),以长的优先
// 你-3 妹-4 夫-5
k = i;
for
(; ++k < length;) {
int
temp = charconvert(chs[k]);
if
(stopwdset.contains(temp))
continue
;
node = node.querysub(temp);
if
(node ==
null
)
// 没有了
break
;
if
(node.islast()) {
couldmark =
true
;
marknum = k - i;
// 3-2
}
}
if
(couldmark) {
for
(k =
0
; k <= marknum; k++) {
chs[k + i] = sign;
}
i = i + marknum;
}
}
return
new
string(chs);
}
/**
* 是否包含敏感词
* @param src
* @return
*/
public
static
final
boolean
iscontains(
final
string src) {
char
[] chs = src.tochararray();
int
length = chs.length;
int
currc;
int
k;
wordnode node;
for
(
int
i =
0
; i < length; i++) {
currc = charconvert(chs[i]);
if
(!set.contains(currc)) {
continue
;
}
node = nodes.get(currc);
// 日 2
if
(node ==
null
)
// 其实不会发生,习惯性写上了
continue
;
boolean
couldmark =
false
;
if
(node.islast()) {
// 单字匹配(日)
couldmark =
true
;
}
// 继续匹配(日你/日你妹),以长的优先
// 你-3 妹-4 夫-5
k = i;
for
(; ++k < length;) {
int
temp = charconvert(chs[k]);
if
(stopwdset.contains(temp))
continue
;
node = node.querysub(temp);
if
(node ==
null
)
// 没有了
break
;
if
(node.islast()) {
couldmark =
true
;
}
}
if
(couldmark) {
return
true
;
}
}
return
false
;
}
/**
* 大写转化为小写 全角转化为半角
*
* @param src
* @return
*/
private
static
int
charconvert(
char
src) {
int
r = bcconvert.qj2bj(src);
return
(r >=
'a'
&& r <=
'z'
) ? r +
32
: r;
}
}
|
其中:
iscontains :是否包含敏感词 dofilter:过滤敏感词 。
2、wordnode敏感词节点 。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
|
package
org.andy.sensitivewdfilter;
import
java.util.linkedlist;
import
java.util.list;
/**
* 创建时间:2016年8月30日 下午3:07:45
*
* @author andy
* @version 2.2
*/
public
class
wordnode {
private
int
value;
// 节点名称
private
list<wordnode> subnodes;
// 子节点
private
boolean
islast;
// 默认false
public
wordnode(
int
value) {
this
.value = value;
}
public
wordnode(
int
value,
boolean
islast) {
this
.value = value;
this
.islast = islast;
}
/**
*
* @param subnode
* @return 就是传入的subnode
*/
private
wordnode addsubnode(
final
wordnode subnode) {
if
(subnodes ==
null
)
subnodes =
new
linkedlist<wordnode>();
subnodes.add(subnode);
return
subnode;
}
/**
* 有就直接返回该子节点, 没有就创建添加并返回该子节点
*
* @param value
* @return
*/
public
wordnode addifnoexist(
final
int
value,
final
boolean
islast) {
if
(subnodes ==
null
) {
return
addsubnode(
new
wordnode(value, islast));
}
for
(wordnode subnode : subnodes) {
if
(subnode.value == value) {
if
(!subnode.islast && islast)
subnode.islast =
true
;
return
subnode;
}
}
return
addsubnode(
new
wordnode(value, islast));
}
public
wordnode querysub(
final
int
value) {
if
(subnodes ==
null
) {
return
null
;
}
for
(wordnode subnode : subnodes) {
if
(subnode.value == value)
return
subnode;
}
return
null
;
}
public
boolean
islast() {
return
islast;
}
public
void
setlast(
boolean
islast) {
this
.islast = islast;
}
@override
public
int
hashcode() {
return
value;
}
}
|
3、测试结果 。
项目包含敏感词库,源码,停顿词库等,只需运行maven打jar包直接可运行.
项目源码:sensitivewd-filter.rar 。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持我.
原文链接:http://blog.csdn.net/fengshizty/article/details/52373005 。
最后此篇关于Java实现DFA算法对敏感词、广告词过滤功能示例的文章就讲到这里了,如果你想了解更多关于Java实现DFA算法对敏感词、广告词过滤功能示例的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
背景: 我最近一直在使用 JPA,我为相当大的关系数据库项目生成持久层的轻松程度给我留下了深刻的印象。 我们公司使用大量非 SQL 数据库,特别是面向列的数据库。我对可能对这些数据库使用 JPA 有一
我已经在我的 maven pom 中添加了这些构建配置,因为我希望将 Apache Solr 依赖项与 Jar 捆绑在一起。否则我得到了 SolarServerException: ClassNotF
interface ITurtle { void Fight(); void EatPizza(); } interface ILeonardo : ITurtle {
我希望可用于 Java 的对象/关系映射 (ORM) 工具之一能够满足这些要求: 使用 JPA 或 native SQL 查询获取大量行并将其作为实体对象返回。 允许在行(实体)中进行迭代,并在对当前
好像没有,因为我有实现From for 的代码, 我可以转换 A到 B与 .into() , 但同样的事情不适用于 Vec .into()一个Vec . 要么我搞砸了阻止实现派生的事情,要么这不应该发
在 C# 中,如果 A 实现 IX 并且 B 继承自 A ,是否必然遵循 B 实现 IX?如果是,是因为 LSP 吗?之间有什么区别吗: 1. Interface IX; Class A : IX;
就目前而言,这个问题不适合我们的问答形式。我们希望答案得到事实、引用资料或专业知识的支持,但这个问题可能会引发辩论、争论、投票或扩展讨论。如果您觉得这个问题可以改进并可能重新打开,visit the
我正在阅读标准haskell库的(^)的实现代码: (^) :: (Num a, Integral b) => a -> b -> a x0 ^ y0 | y0 a -> b ->a expo x0
我将把国际象棋游戏表示为 C++ 结构。我认为,最好的选择是树结构(因为在每个深度我们都有几个可能的移动)。 这是一个好的方法吗? struct TreeElement{ SomeMoveType
我正在为用户名数据库实现字符串匹配算法。我的方法采用现有的用户名数据库和用户想要的新用户名,然后检查用户名是否已被占用。如果采用该方法,则该方法应该返回带有数据库中未采用的数字的用户名。 例子: “贾
我正在尝试实现 Breadth-first search algorithm , 为了找到两个顶点之间的最短距离。我开发了一个 Queue 对象来保存和检索对象,并且我有一个二维数组来保存两个给定顶点
我目前正在 ika 中开发我的 Python 游戏,它使用 python 2.5 我决定为 AI 使用 A* 寻路。然而,我发现它对我的需要来说太慢了(3-4 个敌人可能会落后于游戏,但我想供应 4-
我正在寻找 Kademlia 的开源实现C/C++ 中的分布式哈希表。它必须是轻量级和跨平台的(win/linux/mac)。 它必须能够将信息发布到 DHT 并检索它。 最佳答案 OpenDHT是
我在一本书中读到这一行:-“当我们要求 C++ 实现运行程序时,它会通过调用此函数来实现。” 而且我想知道“C++ 实现”是什么意思或具体是什么。帮忙!? 最佳答案 “C++ 实现”是指编译器加上链接
我正在尝试使用分支定界的 C++ 实现这个背包问题。此网站上有一个 Java 版本:Implementing branch and bound for knapsack 我试图让我的 C++ 版本打印
在很多情况下,我需要在 C# 中访问合适的哈希算法,从重写 GetHashCode 到对数据执行快速比较/查找。 我发现 FNV 哈希是一种非常简单/好/快速的哈希算法。但是,我从未见过 C# 实现的
目录 LRU缓存替换策略 核心思想 不适用场景 算法基本实现 算法优化
1. 绪论 在前面文章中提到 空间直角坐标系相互转换 ,测绘坐标转换时,一般涉及到的情况是:两个直角坐标系的小角度转换。这个就是我们经常在测绘数据处理中,WGS-84坐标系、54北京坐标系
在软件开发过程中,有时候我们需要定时地检查数据库中的数据,并在发现新增数据时触发一个动作。为了实现这个需求,我们在 .Net 7 下进行一次简单的演示. PeriodicTimer .
二分查找 二分查找算法,说白了就是在有序的数组里面给予一个存在数组里面的值key,然后将其先和数组中间的比较,如果key大于中间值,进行下一次mid后面的比较,直到找到相等的,就可以得到它的位置。
我是一名优秀的程序员,十分优秀!