赞
踩
符号主义:以知识的符号表达为基础,通过推理进行问题求解
连接主义:认为人的思维基元是神经元,而不是符号处理过程
行为主义:主张从行为方面模拟、延伸、扩展人的智能,认为“智能”可以不需要“知识”
以重排九宫为例
优点:
只要问题有解,用广度优先搜索总可以得到解,而且得到的是路径最短的解。
缺点:
广度优先搜索盲目性较大,当目标节点距初始节点较远时将会产生许多无用节点,搜索效率低。
1.在深度优先搜索中,搜索一旦进入某个分支,就将沿着该分支一直向下搜索。如果目标节点恰好在此分支上,则可较快地得到解。但是,如果目标节点不在此分支上,而该分支又是一个无穷分支,则就不可能得到解。所以深度优先搜索是不完备的,即使问题有解,它也不一定能求得解。
2.用深度优先求得的解,不一定是路径最短的解。
3.本质:以初始节点为根节点,在状态空间图中按照深度优先的原则,生成一棵搜索树。
1.如果问题有解,且其路径长度≤dm,则上述搜索过程一定能求得解。但是,若解的路径长度>dm,则上述搜索过程就得不到解。这说明在有界深度优先搜索中,深度界限的选择是很重要的。
2.要恰当地给出dm的值是比较困难的。即使能求出解,它也不一定是最优解。
上标有代价(或费用)的树称为代价树。
用g(x)表示从初始节点S0到节点x的代价,用c(x1,x2)表示从父节点x1到子节点x2的代价,则有:
g
(
x
2
)
=
g
(
x
1
)
+
c
(
x
1
,
x
2
)
g(x_2)=g(x_1)+c(x_1,x_2)
g(x2)=g(x1)+c(x1,x2)
搜索过程
搜索过程
代价树的深度优先搜索是不完备的。
盲目搜索具有较大的盲目性,产生的无用节点较多,效率不高。
启发式搜索采用问题自身的特性信息,以指导搜索朝着最有希望的方向前进。这种搜索针对性较强,因而效率较高
可用于指导搜索过程,且与具体问题有关的信息称为启发性信息。
用于评估节点重要性的函数称为估价函数。其一般形式为:
f
(
x
)
=
g
(
x
)
+
h
(
x
)
f(x) = g(x)+h(x)
f(x)=g(x)+h(x)
其中g(x)表示从初始节点S0到节点x的代价;h(x)是从节点x到目标节点Sg的最优路径的代价的估计,它体现了问题的启发性信息,称为启发函数。 f(x) 决定节点在OPEN表中的次序。
g(x) 指出了搜索的横向趋势,有利于搜索的完备性,但影响搜索的效率。
h(x)指出了搜索的纵向趋势,有利于提高搜索的效率,但影响搜索的完备性。
局部择优搜索是一种启发式搜索方法,是对深度优先搜索方法的一种改进。
基本思想:当一个节点被扩展以后,按f(x)对每一个子节点计算估价值,并选择最小者作为下一个要考察的节点。
搜索过程
在局部择优搜索中,若令f(x) = g(x),则局部择优搜索就成为代价树的深度优先搜索。
在局部择优搜索中,若令f(x) =d(x),这里d(x) 表示节点x的深度,则局部择优搜索就成为深度优先搜索。
因此:深度优先搜索、代价树的深度优先搜索均为局部择优搜索的特例
每当要选择下一个节点进行考察时,全局择优搜索每次总是从OPEN表的全体节点中选择一个估价值最小的节点。
搜索过程
在全局择优搜索中,若令f(x) = g(x),则它就成为代价树的广度优先搜索。
在全局择优搜索中,若令f(x) =d(x),这里d(x) 表示节点x的深度,则它就成为广度优先搜索。
因此:广度优先搜索、代价树的广度优先搜索是全局择优搜索的两个特例。
例子
设估价函数为 f(x)=d(x)+h(x),其中,d(x)表示节点x的深度,h(x)表示节点x的格局与目标节点格局不相同的牌数。
[外链图片转存失败(img-8Bhj0Oh9-1562232606973)(人工智能/7.png)]
代换是一个形如
{
t
1
/
x
1
,
t
2
/
x
2
,
…
,
t
n
/
x
n
}
\{t_1/x_1,t_2/x_2,…,t_n/x_n\}
{t1/x1,t2/x2,…,tn/xn}的有限集合。
其中
t
1
,
t
2
,
…
,
t
n
t_1,t_2,…,t_n
t1,t2,…,tn是项(常量、变量、函数);
x
1
,
x
2
,
…
,
x
n
x_1,x_2,…,x_n
x1,x2,…,xn是(某一公式中)互不相同的变元;
t
i
/
x
i
t_i/x_i
ti/xi表示用
t
i
t_i
ti代换
x
i
x_i
xi
不允许
t
i
t_i
ti与
x
i
x_i
xi相同,也不允许变元
x
i
x_i
xi循环地出现在另一个
t
j
t_j
tj中。
例如:
{a/x,f(b)/y,w/z}是一个代换
{g(y)/x,f(x)/y}不是代换
{g(a)/x,f(x)/y}是代换
定义 设
θ
=
{
t
1
/
x
1
,
t
2
/
x
2
,
⋯
 
,
t
n
/
x
n
}
\theta=\{t_1/x_1,t_2/x_2,\cdots,t_n/x_n\}
θ={t1/x1,t2/x2,⋯,tn/xn}
λ
=
{
u
1
/
y
1
,
u
2
/
y
2
,
⋯
 
,
u
m
/
y
m
}
\lambda=\{u_1/y_1,u_2/y_2,\cdots,u_m/y_m\}
λ={u1/y1,u2/y2,⋯,um/ym}
是两个代换
则这两个代换的复合也是一个代换,它是从
{
t
1
λ
/
x
1
,
t
2
λ
/
x
2
,
⋯
 
,
t
n
λ
/
x
n
,
u
1
/
y
1
,
u
2
/
y
2
,
⋯
 
,
u
m
/
y
m
}
\{t_1\lambda/x_1,t_2\lambda/x_2,\cdots,t_n\lambda/x_n,u_1/y_1,u_2/y_2,\cdots,u_m/y_m\}
{t1λ/x1,t2λ/x2,⋯,tnλ/xn,u1/y1,u2/y2,⋯,um/ym}
中删去如下两种元素:
t
i
λ
/
x
i
当
t
i
λ
=
x
i
t_i\lambda/x_i \quad 当t_i\lambda=x_i
tiλ/xi当tiλ=xi
u
i
/
y
i
当
y
i
∈
{
x
1
,
x
2
,
⋯
 
,
x
n
}
u_i/y_i \quad 当y_i\in\{x_1,x_2,\cdots,x_n\}
ui/yi当yi∈{x1,x2,⋯,xn}
后剩下的元素所构成的集合,记为θ°λ
(1) t i λ t_i\lambda tiλ表示对 t i t_i ti运用λ进行代换。
(2)θ°λ就是对一个公式F先运用θ进行代换,然后再运用λ进行代换:F(θ°λ)=(F θ)λ
定义: 任何文字的析取式称为子句
(1) 合取范式:C1 ∧C2 ∧C3… ∧Cn
(2) 子句集: S= {C1 ,C2 ,C3… ,Cn}
(3)任何谓词公式F都可通过等价关系及推理规则化为相应的子句集S
为了判断子句集的不可满足性,需要对所有可能论域上的所有解释进行判定。只有当子句集对任何非空个体域上的任何一个解释都是不可满足的时候,才可断定该子句集是不可满足的。
对于任意论域中的任意一个解释,S中的子句不能同时取得真值T。一旦S中包含空子句,则S必不可满足。
检查子句集S中是否包含空子句。若包含,则S不可满足;若不包含,就在子句集中选择合适的子句进行归结,一旦通过归结能推出空子句,就说明子句集S是不可满足的。
设F为已知前提的公式集,Q为目标公式(结论),用归结反演证明Q为真的步骤是:
概念
可采用最大最小法。
若
E
=
E
1
AND
E
2
AND
…
AND
E
n
\mathrm{E}=\mathrm{E}_{1} \text { AND } \mathrm{E}_{2} \text { AND } \ldots \text { AND } \mathrm{E}_{\mathrm{n}}
E=E1 AND E2 AND … AND En,则
C
F
(
E
)
=
min
{
C
F
(
E
1
)
,
C
F
(
E
2
)
,
…
,
C
F
(
E
n
)
}
\mathrm{CF}(\mathrm{E})=\min \left\{\mathrm{CF}\left(\mathrm{E}_{1}\right), \mathrm{CF}\left(\mathrm{E}_{2}\right), \ldots, \mathrm{CF}\left(\mathrm{E}_{n}\right)\right\}
CF(E)=min{CF(E1),CF(E2),…,CF(En)}
若
E
=
E
1
OR
E
2
OR
…
OR
E
n
\mathrm{E}=\mathrm{E}_{1} \text { OR } \mathrm{E}_{2} \text { OR } \ldots \text { OR } \mathrm{E}_{\mathrm{n}}
E=E1 OR E2 OR … OR En,则
C
F
(
E
)
=
max
{
C
F
(
E
1
)
,
C
F
(
E
2
)
,
…
,
C
F
(
E
n
)
}
\mathrm{CF}(\mathrm{E})=\max \left\{\mathrm{CF}\left(\mathrm{E}_{1}\right), \mathrm{CF}\left(\mathrm{E}_{2}\right), \ldots, \mathrm{CF}\left(\mathrm{E}_{\mathrm{n}}\right)\right\}
CF(E)=max{CF(E1),CF(E2),…,CF(En)}
若由多条不同知识推出了相同的结论,但可信度不同,则用合成算法求出综合可信度。
设有如下知识:
IF
E
1
\quad \mathrm{E}_{1} \quad
E1 THEN
H
(
C
F
(
H
,
E
1
)
)
\quad \mathrm{H} \quad\left(\mathrm{CF}\left(\mathrm{H}, \mathrm{E}_{1}\right)\right)
H(CF(H,E1))
IF
E
2
\quad \mathrm{E}_{2} \quad
E2 THEN
H
(
C
F
(
H
,
E
2
)
)
\quad \mathrm{H} \quad\left(\mathrm{CF}\left(\mathrm{H}, \mathrm{E}_{2}\right)\right)
H(CF(H,E2))
则结论H的综合可信度分如下两步算出:
首先分别对每一条知识求出
C
F
(
H
)
CF(H)
CF(H): 计算
C
F
1
(
H
)
CF_1(H)
CF1(H),
C
F
2
(
H
)
CF_2(H)
CF2(H)
然后用下述公式求出E1与E2对H的综合可信度
C
F
12
(
H
)
CF_{12}(H)
CF12(H):
P
(
H
∣
S
)
=
{
C
F
1
(
H
)
+
C
F
2
(
H
)
−
C
F
1
(
H
)
×
C
F
2
(
H
)
,
C
F
1
(
H
)
≥
0
,
C
F
2
(
H
)
≥
0
C
F
1
(
H
)
+
C
F
2
(
H
)
+
C
F
1
(
H
)
×
C
F
2
(
H
)
,
C
F
1
(
H
)
<
0
,
C
F
2
(
H
)
<
0
C
F
1
(
H
)
+
C
F
2
(
H
)
1
−
min
{
∣
C
F
1
(
H
)
∣
,
C
F
2
(
H
)
∣
}
,
C
F
1
(
H
)
×
C
F
2
(
H
)
<
0
P(H | S)=\left\{
例 设有如下一组知识: R1: IF E1 THEN H (0.8) R2: IF E2 THEN H (0.6) R3: IF E3 THEN H (-0.5) R4: IF E4 AND (E5 OR E6) THEN E1 (0.7) R5: IF E7 AND E8 THEN E3 (0.9) 已知:CF(E2)=0.8, CF(E4)=0.5, CF(E5)=0.6 CF(E6)=0.7, CF(E7)=0.6, CF(E8)=0.9 求:CF(H)=? 解:由R4得到: CF(E1)=0.7×max{0,CF[E4 AND (E5 OR E6)]} =0.7×max{0,min{CF(E4),CF(E5 OR E6)}} =0.35 由R5得到: CF(E3)=0.9×max{0,CF[E7 AND E8]} =0.54 由R1得到: CF1(H)=0.8×max{0,CF(E1)}=0.28 由R2得到: CF2(H)=0.6×max{0,CF(E2)}=0.48 由R3得到: CF3(H)=-0.5×max{0,CF(E3)}=-0.27 根据结论不确定性的合成算法: CF12(H)=CF1(H)+CF2(H)-CF1(H)×CF2(H)=0.63 CF123(H)=[CF12(H)+CF3(H)]/[1-min{|CF12(H)|,|CF3(H)|}] =0.49 即最终的综合可信度为CF(H)=0.49。
若有
C
F
(
E
1
)
,
C
F
(
E
2
)
,
…
,
C
F
(
E
n
)
CF(E_1),CF(E_2),…,CF(E_n)
CF(E1),CF(E2),…,CF(En),则组合证据的可信度为:
C
F
(
E
)
=
∑
i
=
1
n
(
ω
i
×
C
F
(
E
i
)
)
C F(E)=\sum_{i=1}^{n}\left(\omega_{i} \times C F\left(E_{i}\right)\right)
CF(E)=i=1∑n(ωi×CF(Ei))
例设有如下知识: R1: IF E1(0.6) AND E2(0.4) THEN E6(0.8,0.75) R2: IF E3(0.5) AND E4(0.3) AND E5(0.2) THEN E7(0.7,0.6) R3: IF E6(0.7) AND E7(0.3) THEN H(0.75,0.6) 已知:CF(E1)=0.9, CF(E2)=0.8, CF(E3)=0.7, CF(E4)=0.6, CF(E5)=0.5 求:CF(H)=? 解:由R1得到: CF(E1(0.6) AND E2(0.4))=0.86>λ1=0.75 ∴R1可被应用。 由R2得到: CF(E3(0.5) AND E4(0.3) AND E5(0.2))=0.63>λ2 =0.6 ∴R2可被应用。 ∵0.86>0.63 ∴R1先被应用。 由R1得到:CF(E6)=0.69 由R2得到:CF(E7)=0.44 由R3得到: CF(E6(0.7) AND E7(0.3))=0.615>λ3 =0.6 ∴R3可被应用,得到: CF(H)=0.46 即最终得到的结论H可信度为0.46
扎德提出了两种方法:一种称为条件命题的极大极小规则;另一种称为条件命题的算术规则,由它们获得的模糊关系分别记为
R
m
R_m
Rm和
R
a
R_a
Ra。
设
A
∈
F
(
U
)
,
B
∈
F
(
V
)
A \in F(U), B \in F(V)
A∈F(U),B∈F(V),其表示分别为
A
=
∫
U
μ
A
(
u
)
/
u
,
B
=
∫
V
μ
B
(
u
)
/
u
A=\int_{U} \mu_{A}(u) / u \quad, B=\int_{V} \mu_{B}(u) / u
A=∫UμA(u)/u,B=∫VμB(u)/u
用
x
,
∪
,
∩
,
¬
,
⊕
x, \cup, \cap, \neg, \oplus
x,∪,∩,¬,⊕分别表示模糊集的笛卡儿乘积、并、交、补及有界和运算,则扎德把
R
m
R_m
Rm和
R
a
R_a
Ra分别定义为:
R
m
=
(
A
×
B
)
∪
(
¬
A
×
V
)
=
∫
U
×
V
(
μ
A
(
u
)
∧
μ
B
(
v
)
)
∨
(
1
−
μ
A
(
u
)
)
/
(
u
,
v
)
R_{m}=(A \times B) \cup(\neg A \times V)=\int_{U \times V}\left(\mu_{A}(u) \wedge \mu_{B}(v)\right) \vee\left(1-\mu_{A}(u)\right) /(u, v)
Rm=(A×B)∪(¬A×V)=∫U×V(μA(u)∧μB(v))∨(1−μA(u))/(u,v)
R
a
=
(
¬
A
×
V
)
⊕
(
U
×
B
)
=
∫
U
×
V
1
∧
(
1
−
μ
A
(
u
)
+
μ
B
(
v
)
)
/
(
u
,
v
)
R_{a}=(\neg A \times V) \oplus(U \times B)=\int_{U \times V} 1 \wedge\left(1-\mu_{A}(u)+\mu_{B}(v)\right) /(u, v)
Ra=(¬A×V)⊕(U×B)=∫U×V1∧(1−μA(u)+μB(v))/(u,v)
例 设
U
=
V
=
{
1
,
2
,
3
,
4
,
5
}
,
A
=
1
/
1
+
0.5
/
2
,
B
=
0.4
/
3
+
0.6
/
4
+
1
/
5
\mathbf{U}=\mathbf{V}=\{1,2,3,4,5\}, \mathbf{A}=\mathbf{1} / 1+0.5 / 2, \mathbf{B}=0.4 / 3+0.6 / 4+1 / 5
U=V={1,2,3,4,5},A=1/1+0.5/2,B=0.4/3+0.6/4+1/5
并设模糊知识及模糊证据分别为:
IF
x
is A THEN
y
is
B
x
is
A
′
\text { IF }x \text { is A THEN } y \text { is } B \quad x \text { is } A^{\prime}
IF x is A THEN y is Bx is A′
其中,
A
′
A^{\prime}
A′的模糊集为:
A
′
=
1
/
1
+
0.4
/
2
+
0.2
/
3
\mathbf{A}^{\prime}=\mathbf{1} / \mathbf{1}+\mathbf{0} .4 / 2+\mathbf{0} .2 / 3
A′=1/1+0.4/2+0.2/3
则由模糊知识可分别得到
R
m
R_m
Rm和
R
a
R_a
Ra:
R
m
=
[
0
0
0.4
0.6
1
0.5
0.5
0.5
0.5
0.5
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
]
,
R
a
=
[
0
0
0.4
0.6
1
0.5
0.5
0.9
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
]
R_{m}=\left[
则
B
m
′
=
A
′
∘
R
m
=
{
0.4
,
0.4
,
0.4
,
0.6
,
1
}
\mathbf{B}_{\mathrm{m}}^{\prime}=\mathbf{A}^{\prime} \circ \mathbf{R}_{\mathrm{m}}=\{0.4,0.4,0.4,0.6,1\}
Bm′=A′∘Rm={0.4,0.4,0.4,0.6,1}
B
a
′
=
A
′
∘
R
a
=
{
0.4
,
0.4
,
0.4
,
0.6
,
1
}
\mathbf{B}_{\mathrm{a}}^{\prime}=\mathbf{A}^{\prime} \circ \mathbf{R}_{\mathrm{a}}=\{0.4,0.4,0.4,0.6,1\}
Ba′=A′∘Ra={0.4,0.4,0.4,0.6,1}
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。