赞
踩
解决斗地主游戏,斗地主中与围棋游戏很大的不同在于非完美信息、多玩家卡牌游戏、既带有合作又带有竞争。合法动作空间巨大( 1 0 4 10^{4} 104),与他同等级的有无限注德州扑克。
作者总体采用的方式还是比较简单,可能是期望在单机上能够跑起来做的牺牲。但是效果还可以。论文中描述的三个步骤如下:
首先就是基于策略 π \pi π去采样,得到的采样样本用来估计 Q Q Q值,对,这里没有什么花里胡哨的做法,直接就是基于采样的数据估计 Q ( s , a ) Q(s, a) Q(s,a)。细节可以描述为:对状态 s s s(自己的手牌,底牌,历史出牌序列)进行编码。计算合法出牌动作。根据训练好的模型Q(s, a)对合法动作进行打分,选择得分最高的动作进行出牌 a = a r g m a x a ∈ l e g a l Q ( s , a ) a = argmax_{a \in legal}Q(s, a) a=argmaxa∈legalQ(s,a)。整体的训练流程就是:AI对弈产生对局数据,将数据发送到训练器。使用训练数据通过梯度下降更新模型。
第一步采样的时候采用的epsilon-greedy
方法采样,也是有优化空间。
剩下的就是看看作者如何编码状态和合法动作空间了:
状态及动作编码:
状态和动作都编码为上图所示的 4 × 15 4 \times 15 4×15的矩阵。
之后作者将 4 × 15 4 \times 15 4×15的矩阵展平,也就是 1 × 60 1 \times 60 1×60, 由于只有一张大小王,因此会有6个位置始终为0,也就是每个矩阵可以转换成一个54维的向量。对于历史信息,我们考虑最近15步的历史信息,然后经过一个LSTM,不够的补0。具体特征表示如下:
作者在这里不考虑花色,虽然说花色基本不带有额外信息,但是有时候地主出牌需要考虑三张底牌花色。
当前手牌矩阵,地主牌矩阵,历史出牌序列矩阵,其他玩家出过的牌的矩阵,每位玩家剩余牌的数量,炸弹数量等等。历史出牌序列是只取了最近15
轮的数据。
动作是出牌矩阵。
动作空间如下:
神经网络采用简单的六层全连接网络。斗地主中,地主上家,地主下家会存在不同的出牌风格。因此DouZero中采用三个模型。地主、地主上家、地主下家。
对于叫牌阶段,采用人类数据训练一个监督网络。叫牌阶段需要考虑的是自己的手牌和其它玩家的决策。叫牌阶段的特征如下:
叫牌阶段作者的准确率可以达到83%。
评估两个算法的时候,同一套牌,会评估两次,算法 A A A玩农民,算法 B B B玩地主和算法 B B B玩农民,算法 A A A玩地主。实验结果如下:
这里采用了两种衡量指标,一种是WP、另一种是ADP。
作者在实验中,最多采用了45个进程采样,并且作者发现,训练效率和模拟器几乎成线性正比的。
在4张卡的1080Ti上,48个CPU核,两天打败人类监督数据学习得到的模型。
这个监督的模型是采用,快手的斗地主上较好的人类玩家数据,训练二分类得到的。负样本是合法的动作,但是并未被采纳的。batch size为8096,决策的时候选择分数最高的那个合法动作。
斗地主这个游戏本身是存在非常的的运气成分的,所以高几个百分点就代表了水平的很大的提高了。
ICML2021
上的一篇文章。一作是莱斯大学的在读博士生查道琛。共同一作谢静如,美国密歇根大学物理学博士。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。