当前位置:   article > 正文

读DeepMimic: Example-Guided Deep Reinforcement Learning of Physics-Based Character Skills_deepmimic介绍

deepmimic介绍

总的来说这篇文章的目的是训练出一个Agent在能够完成所需要的目标前提下,它的动作更贴近真实(也就是提供的参考动作)。
整个DeepMimic所需要的input分为三部分:一个被称为Character的Agent模型;想要Agent学习的参考动作(reference motion);想要Agent完成的任务(task)所定义的reward function。训练之后会得到一个可以控制Agent同时满足与参考动作相似且可以完成任务的控制器(controller)。DeepMimic的物理环境用的是(Bullet. 2015. Bullet Physics Library. (2015). http://bulletphysics.org.)


算法部分来说既然是RL,就少不了三个重要组成部分State,Action,Reward:

  • State:对于Character的各种描述,包括身体各部分的位置,转动角度,角速度等等,坐标系的原点是Character的盆骨(奇妙的说法),x轴方向是脸的朝向;同时还加了一个变量来描述一个motion的进度(例如后空翻动作开始时为0,翻完了结束了为1)。
  • Action:每个关节所需要转到的方向(目标角度),采样频率为30Hz,之后将角度输入到PD controller(Jie Tan, Karen Liu, and Greg Turk. 2011. Stable Proportional-Derivative Controllers.IEEE Comput. Graph. Appl. 31, 4 (2011), 34–44.)
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/468862
推荐阅读
相关标签
  

闽ICP备14008679号