当前位置:   article > 正文

人工智能作业考试汇总_参考下列贝叶斯网络: 其中布尔变量 i=聪明(intelligence) h=诚实(honest)

参考下列贝叶斯网络: 其中布尔变量 i=聪明(intelligence) h=诚实(honest) p=受欢

作业1

1. 人工智能定义

1. 简述什么是人工智能

  人工智能可分为两个维度:一个维度是从思维推理过程到行为结果(过程与结果);另一个维度是与人类表现的逼真度到数学与工程结合后的精确性(主观与客观)。

  • 像人—样行动:图灵测试的途径;
  • 像人—样思考:认知建模的途径;
  • 合理地思考:"思维法则"的途径;
  • 合理地行动:合理Agent途径;

2. agent判断

2. 考虑一个医疗诊断系统的agent,讨论该agent最合适的种类(简单agent,基于模型的agent,基于目标的agent和基于效用的agent)并解释你的结论
在这里插入图片描述
  我认为基于效用的agent最合适,因为医疗诊断系统面对很多不同的人群,存在很多不确定因素,即存在多个目标,多个目标在不确定的环境中。并且,能够治愈病人的方法有很多种,即一个目标有多种行为可以到达,系统必须衡量最优的方法来推荐给病人。所以效率很重要,应该选用基于效用的agent;

3. 搜索树

3. 先建立一个完整的搜索树,起点是S,终点是G,如下图,节点旁的数字表示到达目标状态的距离,然后用以下方法表示如何进行搜索
在这里插入图片描述
下列图为 ipad 上手绘
建立搜索树:
在这里插入图片描述

(a).深度优先
在这里插入图片描述

(b).广度优先
在这里插入图片描述

©.爬山法
在这里插入图片描述

(d).最佳优先
在这里插入图片描述

4. 搜索树代价计算

4. 图二是一棵部分展开的搜索树,其中树的边记录了对应的单步代价,叶子节点标注了到达目标结点的启发式函数的代价值,假定当前状态位于结点A:
在这里插入图片描述
(a) 用下列的搜索方法来计算下一步需要展开的叶子节点,,
注意必须要有完整的计算过程,同时必须对扩展该叶子节点之前的节点顺序进行记录:
在这里插入图片描述

  1. 贪婪最佳优先搜索
    首先,贪婪最佳优先算法是试图扩展离目标最近的节点,它只用到启发信息,也就是f(n)=h(n);即使用启发函数,从状态n到目标的最短路径的估计耗散值h(n)作为从起点经过n到目标的最短路径估计耗散值f(n);这里如果 h(B) >5 ,那么结点 c 距离目标结点最近,距离为 5 ,所以贪婪最佳优先算法先扩展 c 结点;如果h(B)<5,那么结点 B 距离目标结点最近,优先扩展 B 结点;
  2. 一致代价搜索 (GBS)
    在这里插入图片描述
    —致性代价搜索扩展的是路径消耗最小的结点。所以一致代价搜索扩展的结点顺序为:BDEFGHC
  3. A树搜索
    A
    搜索对节点的评估结合了g(n),即到达此节点已经花费的代价,和h(n),故f(n)=g(n)+h(n),即经过节点n的最小代价;
    如果 h(B)>15,因为 5+13 < 3+h(B) <19+5,所以首先访问D;如果 h(B)<15,因为 3+h(B) < 5+13 <19+5,所以首先访问 B,然后再访问 E G D H F C;
    在这里插入图片描述
    https://blog.csdn.net/CCCrunner/article/details/102851569

(b) 讨论以上三种算法的完备性和最优性

  • 贪婪最佳有限所搜算法试图扩展离目标距离最近的节点,因为这样符合贪婪的本质,能够很快找到解,它是不完备的,容易陷入死胡同或者死循环,类似DFS;
  • 一致代价搜索算法按照结点的最优路径顺序扩展节点,这是对任何单步代价函数都是最优的算法,它不再扩展深度最浅的结点,它是完备的,类似BFS;
  • A*树搜索是完备的,且对于给定的一致的启发函数都是效率最优的;

5. 博弈树

5. 博弈树问题
以下是一个博弈树轮到max选手行棋,叶子结点下的数字代表着当前状态的分值(相对于max选手)。
在这里插入图片描述
a)如果max选择走结点3且两个玩家正确游戏,那么该博弈树输出的分值是什么?

  当 max 选择走结点3时,min只有结点 6、7、8的选择,叶子结点表示 max 的赢面,如果 min 走结点7,那么 max 的赢面为3、5、6,这个赢面大于 min 走结点8后max的赢面 ,为了降低 max 赢的概率,min 一定不会走结点7;现在只剩结点6和8了,如果 min 走结点6,会面临让 max 赢面为9的可能,综合考虑:9*50%+1*50% > 2*50%+3*50%所以节点6使得 max 平均赢面为5,而结点8使得 max 平均赢面为2.5,所以 min 权衡之下,一定会走结点8,而 max 则会选择结点20,该博弈树输出值为3

b)分析使用剪枝时(从左到右遍历)该树被裁剪的部分。
在这里插入图片描述
参考文章:
详解Minimax算法与α-β剪枝
https://www.bilibili.com/video/BV1o54y1e7gP?from=search&seid=2162585600183505084
在这里插入图片描述
在这里插入图片描述
裁剪结点 13、8、19、20;

6. 四皇后问题

6. 考虑棋盘上的四皇后问题,最左边的一列为第一列,最上面的一行为第一行, Qi表示皇后在第i行所在的列数。假定皇后摆放的顺序为Q1,Q2,Q3,Q4, 且在每一行上按照从第一列到第四列的顺序摆放皇后,请运用回溯搜索算法结合前向检测来解决四皇后问题。
在这里插入图片描述
如果皇后摆放的顺序依旧为Q1,Q2,Q3,Q4,但不要求在每一行上从第一列到第四列摆放皇后,能够找出一种摆放策略来避免回溯失败?
对于皇后较少的n皇后问题,可以直观的比较互斥对的对数来决定放置位置:
在这里插入图片描述
  如果第一个皇后放置在(1,1)位置,那么剩余可放置位置(图中空白位置,如(2.3).(2.,4),(3,2).(3,4),(4,2).(4,3))之间的互斥对数有8对。
  如果第一个皇后放置在(1,2)位置,那么剩余可放置位置(图中空白位置,如(2.4).(3,1),(3,3),(4,1),.(4,3),(4,4))之间的互斥对数有5对。
  后者互斥对数更少,表示放置皇后后发生冲突的可能性更小,所以优先将第一个皇后放在(1,2)位置;

7. 一阶逻辑表达式

7. 将下列语句转成一阶逻辑表达式。注意:仅限于使用如下谓词IsNew(x),IsOld(x),IsBlue(x),IsBorrowed(x,y,z),Mother(x,y),Marriageable(x),Possess(x,y)
(1)所有旧的(old)东西都不是新的(new);
∀x isOld(x) -> ¬ isNew(x)
(2)蓝色的(blue)东西是从某人的妈妈(mother)那里借来的(borrowed);
∃x ∃m ∃n ∃y( isBlue(x) -> (Mother(m,n) ∧ borrowed(x, y,n)) )
(3)一个人必须要同时拥有一些旧的东西,一些新的东西,一些借来的东西,一些蓝色的东西才可以结婚(marriageable);

∀x ∃m ∃n ∃y ∃z ∃b (Possess(x, (isOld(m)) ∧ Possess(x, isNew(n) ) ∧ Possess(x, isBlue(y)) ∧ Possess(x, isBorrowed(z,x,b))) -> Marriageable(x) )

8. CNF范式

8.将下列一阶逻辑语句转换为CNF范式
(x){P(x)→{(y)[P(y)→P(f(x,y))]∧(y)[Q(x,y)→P(y)]}}
1)消除蕴含词 (p->q <=> ¬p∨q )
得到:¬(x){¬P(x)∨{(∀y)[¬P(y)∨P(f(x,y))]∧~(∀y)[¬Q(x,y)∨P(y)]}}
2)否定词内移
得到:(∃x){P(x)∧{(∃y)[P(y)∧¬P(f(x,y))]∨(∀y)[¬Q(x,y)∨P(y)]}}
3)变量标准化:相同变量需变名
得到:(∃x){P(x)∧{(∃y)[P(y)∧¬P(f(x,y))]∨(∀z)[¬Q(x,z)∨P(z)]}}
4)skolem 化消除∃量词(∃y <=> g(x))
得到:(g(z)){P(g(z))∧{(h(z))[P(h(z))∧¬P(f(g(z),h(z)))]∨(∀z)[¬Q(g(z),z)∨P(z)]}}
5)删除全称量词
得到:(g(z)){P(g(z))∧{(h(z))[P(h(z))∧¬P(f(g(z),h(z)))]∨[¬Q(g(z),z)∨P(z)]}}
6)将∧分配到∨中
得到:{(g(z))∧P(g(z))}∧{(g(z))∧(h(z))∧P(h(z))}∧{(g(z))∧(h(z))∧¬P(f(g(z),h(z)))}∧{(g(z))∨¬Q(g(z),z)}∧{(g(z))∨P(z)}

7) 把这个CNF变成5个子句:

  • (g(z))∧P(g(z))
  • (g(z))∧(h(z))∧P(h(z))
  • (g(z))∧(h(z))∧¬P(f(g(z),h(z)))
  • (g(z))∨¬Q(g(z),z)
  • (g(z))∨P(z)

作业2

1. 贝叶斯网络近似推理

1.请简述什么是贝叶斯网络的近似推理?为什么要引入近似推理?(10分)

答:
贝叶斯网络是基于概率分析、图论的一种不确定性知识表达和推理的模型,即一种简单的用于表示变量之间条件独立性的有向无环图。其结点对应于随机变量,有向边连接结点对,每一个结点都有一个条件概率分布P(X|Parents(X))。
有效的推理算法是贝叶斯网络的重要内容和应用前提。Cooper证明了任意结构的贝叶斯网络,在给出证据结点观测值的情况下,计算某一非证据结点的后验概率是一个NP难题。所以,在实践中,往往使用一些近似推理算法在事先设定的运行时间内,获得逼近精确解的近似解,这就是贝叶斯网络的近似推理。引入的目的主要是针对上述求精确解的NP难问题做出缓解,近似推理算法的执行结果不受贝叶斯网络结构的显著,抽样统计近似推理算法通过采集网络结点取值的样本,利用统计的方法来计算需要的结点变量的近似后验概率。

2. 不确定性推理

2.如图一所示,一个机器人通过摄像头来评估门的状态。门只能处于两种状态中:“开门”和“关门”。初始时,机器人不知道门处于何种状态之中,因此赋予”开门”和”关门”两种状态同样的先验概率值:
P(is_open)=0.5 P(is_close)=0.5
进一步假设机器人的摄像头传感器是有噪音的,这些噪音导致了对于开门,关门状态判断的不准确,产生了如下的条件概率:
P(sensor_open|is_open)=0.6, P(sensor_closed|is_open)=0.4
P(sensor_open|is_closed)=0.2, P(sensor_closed|is_ closed)=0.8
这些条件概率反映出了机器人在判断关门状态时相对比较可靠(错误率只有0.2),而对于开门状态的判断,错误率相对比较高(错误率为0.4)

在这里插入图片描述

(1)假定当前机器人探测到门处于“开门”状态,使用贝叶斯规则来计算开门与关门两种状态的后验概率。注意:必须列出公式,只有答案没有过程不得分。(15分)

答:
P(is_open|sensor_open)=(P(sensor_open|is_open)*P(is_open))/P(sensor_open)=(P(sensor_open|is_open)*P(is_open))/(P(sensor_open|is_open)*P(is_open)+P(sensor_open|is_closed)*P(is_closed))=(0.6*0.5)/(0.6*0.5+0.2*0.5)=0.75;

P(is_closed|sensor_open)=(P(sensor_open|is_closed)*P(is_closed))/P(sensor_open)=(P(sensor_open|is_closed)*P(is_closed))/(P(sensor_open|is_open)*P(is_open)+P(sensor_open|is_closed)*P(is_closed))=(0.2*0.5)/(0.6*0.5+0.2*0.5)=0.25;

(2)为了避免机器人判断错误而导致的对门的撞击,机器人必须提高对于门的状态的判断准确率。具体来说,我们要求机器人对于门状态的判断准确率达到95%以上。假定机器人连续探求k次并得到门处于“开门”状态,那么k最小为多少才能保证机器人对于“开门”状态的判断准确率达到95%以上?假定每次机器人对于门状态的判断是独立的。(15分)

答:

P(is_closed|sensor_open)=0.25,k最小为多少才能保证机器人对于“开门”状态的判断准确率达到95%以上 等价于 机器人连续k次将”开门”判断为“关门”的错误率要在5%以内(机器人只要有一次判断为开门,那就是正确的),即P(is_closed|sensor_open)的k次方<5%,即(P(is_closed|sensor_open))k<5%,
由此可以得到不等式0.25k<5% => k>2;所以K的最小值为3;

3.参考下图中的贝叶斯网络(见图二),其中布尔变量I=聪明(intelligence) H=诚实(Honest) P=受欢迎的(Popular) L=大量的竞选资金 E=竞选成功
在这里插入图片描述
(1)根据该网络结构,是否可以得到P(I,L,H)=P(I)P(L)P(H),如果不是,请给出正确的表达式; (6分)

答:不是,正确形式为P(I)P(L|H)P(H),H指向L说明L是条件概率;

(2)根据该网络结构计算P(i,h,¬l,p,¬e)的值,只有答案没有步骤不得分;(8分)

答:P(i,h,¬l,p,¬e)=P(I)*P(H)*P(¬L|H)*P(P|I,H,¬L)*P(¬E|P) =0.5*0.1*(1-0.3)*0.4*(1-0.6)=0.0056

(3)假设已知某个人是诚实的,没有大量的竞选资金但是竞选成功了,那么他是聪明的概率是多少?只有答案没有过程不得分。(11分)

答:
P(i|h,¬l,e)= P(i,h,¬l,e)/P(h,¬l,e)
= (P(i,h,¬l,e,p) + P(i,h,¬l,e,¬p))/P(h,¬l,e)=0.0105/P(h,¬l,e)

P(¬i|h,¬l,e)=P(¬i,h,¬l,e)/P(h,¬l,e)
=(P(¬i,h,¬l,e,p) + P(¬i,h,¬l,e,¬p))/P(h,¬l,e) =0.00875/P(h,¬l,e)

因为P(i|h,¬l,e) + P(¬i|h,¬l,e) = 1所以解得P(h,¬l,e)=0.01925
所以P(i|h,¬l,e)= P(i,h,¬l,e)/P(h,¬l,e)=0.0105/0.01925≈0.545

3. 画贝叶斯网络图求概率

4.基姆住在长沙,每天早上她去上课之前都要看看天空。如果天空是多云的,她通常会带伞(大约80%的时间); 但如果不是的话,她带伞的概率是10%。如果早晨是多云的,那么下午有70%的几率会下雨。如果早晨的天空晴朗,下午仍有30%的可能下雨。在长沙,60%的早晨是多云。在下午回家的路上,基姆可能会淋湿。如果下雨并且她带了伞,她只有20%的机会被淋湿;但是如果她忘了带伞,那肯定被淋湿。如果不下雨,基姆仍然有10%的机会被淋湿,这跟她是否有伞无关。根据以上知识回答下列问题:

A.画出该问题的贝叶斯网络并附带条件概率表。该问题包括四个变量,C表示早上是否多云;U表示基姆是否带了伞;R表示下午是否下雨;W表示基姆是否淋湿。(10分)

在这里插入图片描述
B.当基姆下午被淋湿的情况下,早晨是多云的概率是多少?(15分)

P(C|W)=P(C,W)/P(W)=(P(C,W,U,R)+P(C,W,U,¬R)+P(C,W,¬U,R)+P(C,W,¬U,¬R))/P(W)
=( P( C )*P(U|C)*P(R|C)*P(W|U,R) + P( C )*P(U|C)*P(¬R|C)*P(W|U,¬R) +
P( C )*P(¬U|C)*P(R|C)*P(W|¬U,R) + P( C )*P(¬U|C)*P(¬R|C)*P(W|¬U,¬R))/P(W)
=(0.0672+0.0144+0.084+0.0036)/P(W)=0.1692/P(W);

P(¬C|W)=P(¬C,W)/P(W)
=(P(¬C,W,U,R)+P(¬C,W,U,¬R)+P(¬C,W,¬U,R)+P(¬C,W,¬U,¬R))/P(W)
=(P(¬C)*P(U|¬C)*P(R|¬C)*P(W|U,R) + P(¬C)*P(U|¬C)*P(¬R|¬C)*P(W|U,¬R) +
P(¬C)*P(¬U|¬C)*P(R|¬C)*P(W|¬U,R)+P(¬C)*P(¬U|¬C)*P(¬R|¬C)*P(W|¬U,¬R) )/P(W)
=(0.0024+0.0028+0.108+0.0252)/P(W)=0.1384/P(W);

因为P(C|W)+P(¬|W)=1,所以0.1692/P(W)+0.1384/P(W)=1 => P(W)=0.3076;
即P(C|W)=P(C,W)/P(W)=0.1692/P(W)=0.5501

4. 支持向量机

5.简述支持向量机中什么时候用线性核什么时候用高斯核?(10分)

  SVM支持向量机,一般用于二分类模型,支持线性可分和非线性划分。SVM中用到的核函数有线性核’linear’、多项式核函数pkf以及高斯核函数rbf。当训练数据线性可分时,一般用线性核函数,直接实现可分;当训练数据不可分时,需要将训练数据映射到另一个高维空间,使在高维空间中,数据可线性划分,但需要注意的是,若样本n和特征m很大时,且特征m远大于n时,需要用线性核函数,因为此时考虑高斯核函数的映射后空间维数更高,更复杂,也容易过拟合,此时使用高斯核函数的弊大于利,选择使用线性核会更好;若样本n一般大小,特征m较小,此时进行高斯核函数映射后,不仅能够实现将原训练数据再高维空间中实现线性划分,而且计算方面不会有很大的消耗,因此利大于弊,适合用高斯核函数;若样本n很大,但特征m较小,同样难以避免计算复杂的问题,因此会更多考虑线性核。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Gausst松鼠会/article/detail/674882
推荐阅读
相关标签
  

闽ICP备14008679号