赞
踩
论文阅读其实就是用自己的话讲一遍,然后理解其中的方法
为什么阅读这篇论文:因为它获得了IEEE TNNLS 2022年度最佳论文奖,年度唯一最佳论文奖(Outstanding Paper Award),TNNLS目前的影响因子为10.4(截至到2023年9月),是中科院分区1区的Top期刊。
论文题目:Robot Learning System Based on Adaptive Neural Control and Dynamic Movement Primitives
期刊名称:IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS
论文作者:Chenguang Yang, Chuize Chen, Wei He, Rongxin Cui and Zhijun Li
发表年份:2019
作者简介:杨辰光教授是英国布里斯托机器人实验室主任,也是华南理工大学的教授,非常厉害的一位老师,机器人方向的大牛,Google学术被引超多,发表了多篇机器人方向的顶刊论文,包括TRO等,主要研究兴趣为神经网络和机器人控制(我还买了杨辰光老师联合编写的智能控制书籍,主要负责神经网络章节)。感觉杨辰光老师和贺威老师还有李智军老师都互相认识,他们联合发表了很多机器人方向的高质量论文,非常值得阅读。
题目:基于自适应神经控制和动态运动基元的机器人学习系统
摘要:本文提出了一种同时考虑 运动生成和轨迹跟踪的增强型机器人技能学习系统。在机器人学习演示过程中,使用动态运动基元(DMP)对机器人运动进行建模。每个DMP由一组动态系统组成,这些系统增强了生成目标运动的稳定性。此外,结合高斯混合模型和高斯混合回归,以提高DMP的学习性能,从而可以从多次演示中提取更多的技能特征。从学习到的模型生成的运动可以在空间和时间上缩放。此外,还为机器人设计了一个基于神经网络的控制器来跟踪运动模型产生的轨迹。在该控制器中,使用径向基函数神经网络来补偿动态环境造成的影响。使用Baxter机器人进行了实验,结果证实了所提出方法的有效性。
运动生成
近年来,机器人在各个领域得到了广泛的应用,尤其是在制造业。由于制造产品的更新速度越来越快,因此需要适应性强的机器人。因此,有必要开发增强性机器人学习的方法。机器人示教学习(Learning from demonstration, LfD)是简化机器人学习策略的一种有价值的技术。人类导师展示了完成任务的方法,然后机器人通过运动建模来学习和再现技能。因此,必须考虑如何对运动进行有效建模。
动态系统(DS)是运动建模的强大工具。与传统方法(例如插值技术)相比,DS提供了一种灵活的解决方案来建模稳定和可扩展的轨迹。此外,用DS编码的运动对扰动是鲁棒的。一种基于DS的方法被用于学习人类运动,其中DS的未知映射使用称为极限学习机的神经网络(NN)进行近似[5]。所学习的模型显示出足够的稳定性和泛化能力。然而,这种基于DS的方法需要大量的演示数据来进行训练。 相比之下,基于非线性DS的动态运动基元(DMP)只需要一次演示即可对运动进行建模;DMP将运动轨迹建模为与待学习的未知函数组合的弹簧-阻尼器系统。弹簧-阻尼器系统的固有特性增强了所产生运动的稳定性和鲁棒性(对扰动)。
本文主要考虑的的是将多个演示集成到一个DMP模型中。
概率方法在运动编码中显示出良好的性能,可以提取演示的固有可变性,从而可以保留演示的更多特征。诸多文献都利用了DS的鲁棒性和泛化能力,以及概率方法优异的学习性能。
为了利用DS和概率方法的性能,作者将DMP和GMM集成到提出的系统中,其中DMP的非线性函数用GMM建模,并通过GMR检索其估计。这种修改使机器人能够从多次演示中提取更多的运动特征,并生成合成这些特征的运动。使用局部加权回归(LWR)学习原始DMP,并使用局部加权投影回归优化LWR的每个内核的带宽。尽管学习过程增加了复杂性,但这些方法使DMP只能从一个演示中学习。储层计算(Reservoir computing)是另一种用于近似非线性函数的方法,但其计算效率低于GMR。
机器人的模仿性能还取决于涉及机器人动力学的轨迹跟踪控制器的准确性。通常,如果模型足够准确,则基于模型的控制性能更好。然而,由于一些不确定性,例如未知的有效载荷,无法提前获得机械手的精确动力学模型。基于近似的控制器已经被设计来克服这种不确定性。诸多研究人员利用函数逼近工具来学习机器人动力学的非线性特性。神经网络由于其逼近能力而被广泛用于控制器设计。在[23]中,反向传播神经网络(BPNN)用于近似振动抑制装置模型中的未知非线性函数,而在[24]中,径向基函数神经网络(RBFNN)用于近似遥控机器人系统的未知非线性。与BPNN相比,RBFNN的学习过程是基于局部逼近的;因此,RBFNN可以避免陷入局部最优,并且具有更快的收敛速度。此外,RBFNN的隐层单元数量可以在训练阶段自适应调整,使神经网络更加灵活和自适应。因此,RBFNN更适合于实时控制的设计。
本文设计了一种基于神经网络的控制器来保证机械臂在关节空间中的跟踪性能,其中RBFNN用于近似机器人动力学的非线性函数。控制器的稳定性由李雅普诺夫稳定性理论保证。如图1所示,机器人学习系统由运动生成部分和轨迹跟踪部分组成。前者利用基于DMP的运动模型来学习和泛化运动技能;这些反过来又被表示为关节空间中的一组轨迹。后者采用自适应控制器来跟踪前者产生的轨迹,并引入RBFNN来补偿不确定的动力学。
图1、所提系统的框图
本文提出了一个新颖而完整的机器人学习框架,该框架考虑了运动生成和轨迹跟踪的性能。2011年TRO的一篇论文提出的SEDS与本文基于DMP的模型相似。然而,保证SEDS稳定性的约束是由李雅普诺夫理论推导的,这增加了学习的复杂性。与仅考虑运动建模的[3]和[25]相比, 本文提出的系统通过基于神经网络的控制器进行了增强,并且动态环境造成的影响可以通过神经学习来补偿。这种设计使机器人能够在现实世界中稳定、鲁棒地执行学习到的运动。
根据大脑的活动特性,运动技能可以分为点到点和周期性运动两种形式。当使用DS对运动进行建模时,这两种类型分别对应于点吸引子和极限环吸引子。本文关注的是点对点运动,并使用离散型DMP作为基本运动模型,该模型由弹簧-阻尼器系统和非线性函数组成。
DMP可以用于对关节空间或笛卡尔空间中的运动建模。两个空间中的运动被视为一组一维轨迹,每个轨迹被表示为一个DMP模型。为了简洁起见,本文只讨论关节空间中的运动建模问题。DMP模型定义如下[26]:
τ
s
ξ
˙
1
=
ξ
2
τ
s
ξ
˙
2
=
l
1
(
θ
g
−
ξ
1
)
−
l
2
ξ
2
+
(
θ
g
−
θ
0
)
ξ
3
f
(
ξ
3
)
(1)
τ
s
ξ
˙
3
=
−
α
1
ξ
3
(2)
这里的符号和我们看到的许多经典DMP论文不一样,但不影响,他们代表的含义是一摸一样的,只是换了个样子,
ξ
1
∈
R
\xi_{1}\in R
ξ1∈R表示关节位置,
ξ
2
/
τ
s
∈
R
\xi_{2}/\tau_{s} \in R
ξ2/τs∈R表示关节速度,
ξ
˙
2
/
τ
s
∈
R
\dot{\xi}_{2}/\tau_{s}\in R
ξ˙2/τs∈R表示关节加速度。
ξ
3
>
0
\xi_{3} > 0
ξ3>0为指数收敛的相位变量。
l
1
l_{1}
l1,
l
2
l_{2}
l2和
α
1
\alpha_{1}
α1是正常数,
θ
0
\theta_{0}
θ0为起点,
θ
g
\theta_{g}
θg为终点,
θ
g
−
θ
0
\theta_{g}-\theta_{0}
θg−θ0为空间缩放项,
τ
s
>
0
\tau_{s}>0
τs>0为时间常数,非线性项
f
:
R
→
R
f:R\rightarrow R
f:R→R是相位变量
ξ
3
\xi_{3}
ξ3的连续有界函数。
公式1是受非线性项扰动的弹簧-阻尼器系统。通常,我们选择 l 1 = l 2 2 / 4 l_{1}=l_{2}^2/4 l1=l22/4以使前者具有临界阻尼特性。系统(2)的初始状态可以选择为 ξ 0 = 1 \xi_{0}=1 ξ0=1。整个模型的稳定性是显而易见的;由于状态 ξ 3 \xi_{3} ξ3将收敛到零并且非线性函数 f ( ξ 3 ) f(\xi_{3}) f(ξ3)是有界的,因此非线性项将收敛到0。然后,系统(1)成为稳定的弹簧-阻尼器系统,其状态收敛于目标 θ g \theta_{g} θg。
原始弹簧阻尼器部分的大初始加速度(图2a)不适合机器人的实际运行。此外,加速度的较大变化将导致复杂的外力项,这不利于模型的学习。因此,本文将弹簧阻尼器部分中的目标点 θ g \theta_{g} θg替换为另一个指数衰减系统的状态[27]
τ
s
ξ
˙
4
=
−
α
2
(
ξ
4
−
θ
g
)
(3)
其中,
α
2
\alpha_{2}
α2是一个正常数,
ξ
4
\xi_{4}
ξ4的初始值设为
θ
0
\theta_{0}
θ0。因此,系统1被重写为如下形式[27]:
τ
s
ξ
˙
1
=
ξ
2
τ
s
ξ
˙
2
=
l
1
(
ξ
4
−
ξ
1
)
−
l
2
ξ
2
+
(
θ
g
−
θ
0
)
ξ
3
f
(
ξ
3
)
(4)
如图2(a)所示,修改后系统的加速度变得适中。 f = 0 f=0 f=0时系统(4)的演化如图2(b)所示。由于状态 ξ 4 \xi_{4} ξ4将收敛到 θ g \theta_{g} θg,因此修改后的模型仍然稳定朝向目标点。
DMP模型因其简洁的公式和良好的泛化性而被选为基本的运动模型。由于DMP模型始终朝着
θ
g
\theta_{g}
θg稳定,因此可以通过调整
θ
g
\theta_{g}
θg和
θ
0
\theta_{0}
θ0来对建模的运动进行空间缩放,而不会使模型失稳。空间缩放项(
θ
g
\theta_{g}
θg-
θ
0
\theta_{0}
θ0)确保了运动的轮廓保持不变,并且可以通过调制
τ
s
\tau_{s}
τs来改变其持续时间。
图2、(a) 系统1中原始弹簧阻尼器部分和系统4中修改后DMP的加速度。(b) 没有外力项(
f
=
0
f=0
f=0)的系统(1)和(4)的演化。
DMP假设运动是由非线性动态系统(4)产生的,其不确定部分是非线性函数 f ( ξ 3 ) f({\xi}_{3}) f(ξ3)。因此,DMP的学习问题是如何近似该函数,该函数补偿弹簧阻尼器部件的实际加速度和预期加速度之间的差异,以再现演示的运动(图3)。假设一维演示轨迹被记录并编码为时间序列 { ( θ t , θ ˙ t , θ ¨ t ) ∣ t = 1 , 2 , … , T } \{(\theta_{t},\dot\theta_{t},\ddot\theta_{t})|t=1,2,\dots,T\} {(θt,θ˙t,θ¨t)∣t=1,2,…,T},其中 θ t , θ ˙ t , θ ¨ t \theta_{t},\dot\theta_{t},\ddot\theta_{t} θt,θ˙t,θ¨t分别描述了轨迹在 t t t时刻时的位置、速度和加速度, T T T是演示的持续时间,使用以下方程[26]计算 t t t时刻处 f f f的期望值:
f
t
=
τ
s
2
θ
¨
t
−
[
l
1
(
ξ
4
,
t
−
θ
t
)
−
l
2
τ
s
θ
˙
t
]
(
θ
T
−
θ
1
)
ξ
3
,
t
(5)
其中 ξ 3 , t 和 ξ 4 , t \xi_{3,t}和\xi_{4,t} ξ3,t和ξ4,t分别是 t t t时刻时的 ξ 3 和 ξ 4 \xi_{3}和\xi_{4} ξ3和ξ4的值。等式(5)是复现的逆过程。由于 f ( ξ 3 ) f(\xi_{3}) f(ξ3)是 ξ 3 \xi_{3} ξ3的函数,我们可以利用数据集 { ( ξ 3 , t , f ( t ) ∣ t = 1 , 2 , … , T } \{(\xi_{3,t},f(t)|t=1,2,\dots,T\} {(ξ3,t,f(t)∣t=1,2,…,T}来近似该函数。
在原始DMP模型中,函数
f
(
ξ
3
)
f(\xi_{3})
f(ξ3)定义为[26]:
f
(
ξ
3
)
=
∑
i
=
1
N
s
γ
i
ϕ
i
(
ξ
3
)
(6)
其中
γ
i
∈
R
\gamma_{i}\in R
γi∈R是
ϕ
i
(
ξ
3
)
\phi_{i}(\xi_{3})
ϕi(ξ3)的权重,
ϕ
i
(
ξ
3
)
\phi_{i}(\xi_{3})
ϕi(ξ3)是归一化高斯基函数,定义为:
ϕ
i
(
ξ
3
)
=
exp
(
−
h
i
(
ξ
3
−
c
i
)
2
)
∑
j
=
1
N
s
exp
(
−
h
j
(
ξ
3
−
c
j
)
2
)
(7)
其中 h i > 0 h_{i}>0 hi>0是第 i i i个高斯函数的宽度, c i > 0 c_{i}>0 ci>0是第 i i i个高斯函数的中心; N s > 0 N_{s}>0 Ns>0是高斯函数的个数。有了这个公式,LWR可以用来学习模型。尽管如此,该解决方案仅适用于单个演示,并且多个演示将被编码为多个独立的DMP模型。因此,无法将多个特定任务的演示特征集成到一个DMP模型中。为了解决这个问题,引入GMM对中间数据进行建模,然后使用GMR对非线性函数进行估计。
图3、(a): 弹簧减振器部分的实际加速度和再现演示的预期加速度(正弦曲线)。(b) :(a)中两个加速度之间的差,由非线性函数
f
(
ξ
3
)
f({\xi}_{3})
f(ξ3)补偿。
给定特定任务的
N
d
N_{d}
Nd个演示
{
(
θ
t
,
n
,
θ
˙
t
,
n
,
θ
¨
t
,
n
)
∣
t
=
1
,
2
,
…
,
T
;
n
=
1
,
2
,
…
,
N
d
}
\{(\theta_{t,n},\dot\theta_{t,n},\ddot\theta_{t,n})|t=1,2,\dots,T;n=1,2,\dots,N_{d}\}
{(θt,n,θ˙t,n,θ¨t,n)∣t=1,2,…,T;n=1,2,…,Nd},我们可以使用(5)获得数据集
{
(
ξ
3
,
t
,
f
t
,
n
∣
t
=
1
,
2
,
…
,
T
;
n
=
1
,
2
,
…
,
N
d
}
\{(\xi_{3,t},f_{t,n}|t=1,2,\dots,T;n=1,2,\dots,N_{d}\}
{(ξ3,t,ft,n∣t=1,2,…,T;n=1,2,…,Nd}。然后,我们需要利用整个数据集来估计一个DMP模型的函数
f
(
ξ
3
)
f({\xi}_{3})
f(ξ3)。学习过程可以分解为两个步骤,如图4所示。为了简洁起见,我们使用
{
ξ
i
,
f
0
}
\{\xi_{i},f_{0}\}
{ξi,f0}来表示数据集。
图4、(a) 演示。(b) 根据(a)计算数据集
{
ξ
i
,
f
0
}
\{\xi_{i},f_{0}\}
{ξi,f0}。(c) 数据集使用GMM进行编码。(d) 使用GMR检索函数
f
(
ξ
3
)
f({\xi}_{3})
f(ξ3)的估计。
步骤一:使用GMM对数据集
{
ξ
i
,
f
0
}
\{\xi_{i},f_{0}\}
{ξi,f0}进行编码。该模型假设数据集是由多个高斯分布生成的。GMM的联合概率密度定义如下[28]:
p
(
ξ
i
,
f
0
)
=
∑
K
=
1
K
α
k
N
(
ξ
i
,
f
0
;
μ
k
,
Σ
k
)
(8)
其中:
∑
K
=
1
K
α
k
=
1
(9)
μ
k
=
[
μ
ξ
i
,
k
μ
f
o
,
k
]
,
Σ
k
=
[
Σ
ξ
i
,
k
Σ
ξ
i
f
o
,
k
Σ
f
o
ξ
i
,
k
Σ
f
o
,
k
]
(10)
并且
N
\mathcal N
N是如下定义的高斯概率分布:
N
(
ξ
i
,
f
o
;
μ
k
,
Σ
k
)
=
exp
[
−
0.5
(
[
ξ
i
,
f
o
]
T
−
μ
k
)
T
Σ
k
−
1
(
[
ξ
i
,
f
o
]
T
−
μ
k
)
]
2
π
∣
Σ
k
∣
(11)
这里, K K K是高斯分布的个数, α k ≥ 0 \alpha_{k} \ge0 αk≥0是权重, μ k ∈ R 2 × 1 \mu_{k}\in R^{2\times 1} μk∈R2×1和 Σ k ∈ R 2 × 2 \Sigma_{k}\in R^{2\times 2} Σk∈R2×2表示第 K K K个高斯分量的均值和协方差矩阵。
α k , μ k , Σ k \alpha_{k},\mu_{k},\Sigma_{k} αk,μk,Σk是要学习的参数。我们可以使用以下步骤从给定的数据集中估计它们的值并学习GMM。
1)参数初始化:用于参数估计的期望-最大化(EM)算法对初始值敏感。因此,k-means算法[29]用于初始化未知参数 α k , μ k , Σ k \alpha_{k},\mu_{k},\Sigma_{k} αk,μk,Σk。该算法将数据集划分为多个集,旨在找到一个分区 D = { D 1 , D 2 , … , D K } D=\{{D_{1},D_{2},…,D_{K}}\} D={D1,D2,…,DK}以最小化每个集的平方偏差之和[29]
D
^
=
arg
min
D
∑
k
=
1
K
∑
x
∈
D
k
∥
x
−
m
k
∥
2
(12)
其中,
x
=
[
x
1
,
x
2
]
T
∈
R
2
×
1
x=[x_{1},x_{2}]^T\in R^{2×1}
x=[x1,x2]T∈R2×1是对应于
[
ξ
3
,
t
,
f
t
,
n
]
T
[\xi_{3,t},f_{t,n}]^T
[ξ3,t,ft,n]T的数据向量,
m
k
∈
R
2
×
1
m_{k}\in R^{2\times 1}
mk∈R2×1是分布在
D
k
D_{k}
Dk和
∪
k
=
1
K
D
k
=
{
ξ
i
,
f
0
}
\cup_{k=1}^{K}D_{k}=\{\xi_{i},f_{0}\}
∪k=1KDk={ξi,f0}中的数据的平均值。该算法重复分配和更新步骤,直到该分区不再更改为止。然后,将未知参数的初始值指定为[14]:
α
k
=
∣
D
k
∣
∑
i
=
1
K
∣
D
i
∣
(13)
μ
k
=
m
k
,
Σ
k
=
[
Σ
x
1
Σ
x
1
x
2
Σ
x
2
x
1
Σ
x
2
]
x
∈
D
k
(14)
2) 参数估计:EM算法是估计GMM参数的合适方法。该算法旨在找到参数
π
k
=
(
α
k
,
μ
k
,
Σ
k
)
\pi_{k}=(\alpha_{k},\mu_{k},\Sigma_{k})
πk=(αk,μk,Σk),以最大化对数似然函数[30]
π
^
k
=
arg
max
π
k
log
(
p
(
ξ
k
,
f
0
∣
π
k
)
)
(15)
3) 模型选择:高斯分量的数量将影响GMM的拟合表现。如果选择更多的组件,GMM可以更好地表示数据集,但它可能导致过拟合和过多的参数。使用贝叶斯信息准则(BIC)来确定组件的数量,从而达到折衷。BIC分数定义如下[14]:
S
B
I
C
(
K
)
=
−
2
log
(
p
(
ξ
i
,
f
o
∣
π
k
)
)
+
(
6
K
−
1
)
log
(
N
d
)
(16)
其中 N d N_{d} Nd是数据集的大小, K K K表示分量的数量。组件的数量最终选择为 K m s = arg min S B I C ( K ) K_{ms}=\arg \min S_{BIC}(K) Kms=argminSBIC(K),并且 K m s K_{ms} Kms的上限由设计者确定。
步骤二:使用GMR来估计函数
f
(
ξ
3
)
f(\xi_{3})
f(ξ3)。根据[28],概率密度(8)可以重写为:
p
(
ξ
i
,
f
o
)
=
∑
k
=
1
K
α
k
N
(
f
o
;
η
^
k
,
σ
^
k
2
)
N
(
ξ
i
;
μ
ξ
i
,
k
,
Σ
ξ
i
,
k
)
(17)
其中,
η
^
k
(
ξ
i
)
=
μ
f
o
,
k
+
Σ
f
o
ξ
i
,
k
(
Σ
ξ
i
,
k
)
−
1
(
ξ
i
−
μ
ξ
i
,
k
)
(18)
和
σ
^
k
2
=
Σ
f
o
,
k
−
Σ
f
o
ξ
i
,
k
(
Σ
ξ
i
,
k
)
−
1
Σ
ξ
i
f
o
,
k
(19)
ξ
i
\xi_{i}
ξi的边缘密度计算如下[28]:
p
(
ξ
i
)
=
∫
p
(
ξ
i
,
f
o
)
d
f
o
=
∑
k
=
1
K
α
k
N
(
ξ
i
;
μ
ξ
i
,
k
,
Σ
ξ
i
,
k
)
(20)
根据(17)和(20),给定
ξ
i
\xi_{i}
ξi的
f
0
f_{0}
f0的条件概率密度为
p
(
f
o
∣
ξ
i
)
=
∑
k
=
1
K
β
k
(
ξ
i
)
N
(
f
o
;
η
^
k
,
σ
^
k
2
)
(21)
其中,
β
k
(
ξ
i
)
=
α
k
N
(
ξ
i
;
μ
ξ
i
,
k
,
Σ
ξ
i
,
k
)
∑
k
=
1
K
α
k
N
(
ξ
i
;
μ
ξ
i
,
k
,
Σ
ξ
i
,
k
)
(22)
然后,我们可以得到如下的GMR函数[28]:
R
(
ξ
i
)
=
E
(
f
o
∣
ξ
i
)
=
∑
k
=
1
K
β
k
(
ξ
i
)
η
^
k
(
ξ
i
)
(23)
此外,函数
f
(
ξ
3
)
f(\xi_{3})
f(ξ3)的估计为:
f
^
(
ξ
3
)
=
∑
k
=
1
K
β
k
(
ξ
3
)
η
^
k
(
ξ
3
)
(24)
与(6)相比,该估计乘以附加项 η ^ k ( ξ 3 ) \hat{\eta}_{k}\left(\xi_{3}\right) η^k(ξ3);因此,该方法使运动模型能够从多个演示中提取更多的特征。
在实践中,机器人必须与各种有效载荷相互作用。为了考虑未知载荷对机械手动力学的影响,设计了一种基于神经网络的控制器来跟踪关节空间中运动模型生成的参考轨迹。
具有n连杆的机械臂动力学描述如下:
M
(
θ
)
θ
¨
+
C
(
θ
,
θ
˙
)
θ
˙
+
G
0
(
θ
)
+
τ
p
=
τ
(25)
其中,
θ
∈
R
n
,
θ
˙
∈
R
n
,
θ
¨
∈
R
n
\theta \in R^n,\dot\theta \in R^n,\ddot\theta \in R^n
θ∈Rn,θ˙∈Rn,θ¨∈Rn为关节位置,关节速度和关节加速度,
τ
\tau
τ为控制力矩,
τ
p
\tau_{p}
τp为有效载荷引起的力矩,
M
(
θ
)
∈
R
n
×
n
,
C
(
θ
,
θ
˙
)
∈
R
n
,
G
0
(
θ
)
∈
R
n
M(\theta) \in R^{n \times n} ,C(\theta, \dot\theta)\in R^{n},G_{0}(\theta)\in R^{n}
M(θ)∈Rn×n,C(θ,θ˙)∈Rn,G0(θ)∈Rn和传统机械臂动力学公式定义一样,分别表示对称正定的的惯性矩阵,科里奥利和向心力矩矩阵,以及重力矢量。根据[31],矩阵
M
,
C
,
G
M,C,G
M,C,G满足
s
T
(
M
˙
−
2
C
)
s
=
0
,
∀
s
∈
R
n
(26)
RBFNN是逼近任何连续函数
g
:
R
m
→
R
g: R^{m} \rightarrow R
g:Rm→R的有效工具,如下所示[32]:
g
(
ϑ
)
=
W
T
S
(
ϑ
)
+
ε
(
ϑ
)
,
∀
ϑ
∈
Ω
ϑ
(27)
其中 ϑ ∈ Ω ϑ ⊂ R m \vartheta \in \Omega_{\vartheta} \subset R^{m} ϑ∈Ωϑ⊂Rm表示输入向量, W = [ ω 1 , ω 2 , ⋯ , ω N ] T ∈ R N W=[\omega_{1},\omega_{2},\cdots,\omega_{N} ]^{T} \in R^{N} W=[ω1,ω2,⋯,ωN]T∈RN为神经网络权重向量,近似误差 ε ( ϑ ) \varepsilon(\vartheta) ε(ϑ)是有界的, S ( ϑ ) = [ s 1 ( ϑ ) , s 2 ( ϑ ) , ⋯ , s N ( ϑ ) ] S(\vartheta)=[s_{1}(\vartheta),s_{2}(\vartheta),\cdots,s_{N}(\vartheta)] S(ϑ)=[s1(ϑ),s2(ϑ),⋯,sN(ϑ)]为非线性向量函数,其中 s i ( ϑ ) s_{i}(\vartheta) si(ϑ)定义为高斯函数:
s
i
(
ϑ
)
=
exp
[
−
(
ϑ
−
κ
i
)
T
(
ϑ
−
κ
i
)
χ
i
2
]
,
i
=
1
,
2
,
…
,
N
(28)
其中
κ
i
=
[
κ
i
1
,
κ
i
2
,
…
,
κ
i
m
]
T
∈
R
m
\kappa_{i}=[\kappa_{i1},\kappa_{i2},\dots,\kappa_{im}]^{T} \in R^{m}
κi=[κi1,κi2,…,κim]T∈Rm表示高斯函数的中心,
χ
i
2
\chi_{i}^{2}
χi2是高斯函数的方差,理想的权重向量定义如下:
W
=
arg
min
W
^
∈
R
N
{
sup
ϑ
∈
Ω
ϑ
∣
g
(
ϑ
)
−
W
^
T
S
(
ϑ
)
∣
}
(29)
对于所有的 ϑ ∈ Ω ϑ \vartheta \in \Omega_{\vartheta} ϑ∈Ωϑ,使得近似误差最小化。
控制器设计包括关节位置控制器和关节速度控制器的设计,如图1所示。在后者中使用RBFNN来近似不确定动力学。
1)关节位置控制器:关节位置跟踪误差定义为
e
p
=
[
e
p
1
,
e
p
2
,
⋯
,
e
p
n
]
T
=
θ
−
θ
d
e_{p}=[e_{p1},e_{p2},\cdots,e_{pn}]^{T}=\theta-\theta_{d}
ep=[ep1,ep2,⋯,epn]T=θ−θd,其中
θ
d
=
[
θ
d
1
,
θ
d
2
,
⋯
,
θ
d
n
]
T
∈
R
n
\theta_{d}=[\theta_{d1},\theta_{d2},\cdots,\theta_{dn}]^{T} \in R^{n}
θd=[θd1,θd2,⋯,θdn]T∈Rn是参考轨迹,它是光滑的和有界的。误差变换函数[33]介绍如下:
e
p
i
(
t
)
=
δ
(
t
)
H
i
(
L
i
(
e
p
i
(
t
)
δ
(
t
)
)
)
,
i
=
1
,
2
,
…
,
n
(30)
其中
δ
(
t
)
=
(
δ
0
−
δ
∞
)
e
−
a
t
+
δ
∞
\delta(t)=(\delta_{0}-\delta_{\infty})e^{-at}+\delta_{\infty}
δ(t)=(δ0−δ∞)e−at+δ∞
所提出的系统通过两组实验进行了测试:基于神经网络的控制器测试和基于DMP的运动模型测试。
在这组实验中,测试了神经网络学习的性能,它补偿了有效载荷引起的机械手动力学的不确定性。实验是在具有两个七自由度机械臂的Baxter机器人上进行的。本文将从肩部到末端执行器的关节命名为 s 0 、 s 1 、 e 0 、 e 1 、 w 0 、 w 1 和 w 2 s0、s1、e0、e1、w0、w1和w2 s0、s1、e0、e1、w0、w1和w2。有效载荷使用机器人的左夹爪连接,该夹爪重0.94 kg。机器人需要跟踪圆形轨迹,定义为: [ X , Y , Z ] = [ 0.65 + 0.1 s i n ( 2 π t / 4 ) , 0.2 + 0.1 c o s ( 2 π t / d ) , 0.2 ] ( m ) [X,Y,Z]=[0.65+0.1sin(2\pi t/4),0.2+0.1cos(2\pi t/d),0.2](m) [X,Y,Z]=[0.65+0.1sin(2πt/4),0.2+0.1cos(2πt/d),0.2](m),姿态固定。通过逆运动学获得关节空间中相应的轨迹,并将其作为控制器的输入。
我们为神经网络的每个输入维度选择三个节点,节点的中心在关节位置和关节速度的限制内均匀分布。有 N = 2187 N=2187 N=2187个神经网络节点被选择用于 M ^ ( θ ) \hat M(\theta) M^(θ)和 G ^ ( θ ) \hat G(\theta) G^(θ), 2 N 2N 2N个节点被选择为 C ^ ( θ , θ ˙ ) \hat C(\theta, \dot \theta) C^(θ,θ˙), 4 N 4N 4N个节点被选为 r ^ ( θ , θ ˙ , v d , v ˙ d ) \hat r(\theta, \dot \theta,v_{d},\dot v_{d}) r^(θ,θ˙,vd,v˙d)。此外,神经网络权重矩阵初始化为 W ^ M = 0 ∈ R n N × n , W ^ C = 0 ∈ R 2 n N × n , W ^ G = 0 ∈ R n N × n 和 W ^ r = 0 ∈ R 4 n N × n \hat W_{M}=0 \in R^{nN \times n},\hat W_{C}=0 \in R^{2nN \times n},\hat W_{G}=0 \in R^{nN \times n}和 \hat W_{r}=0 \in R^{4nN \times n} W^M=0∈RnN×n,W^C=0∈R2nN×n,W^G=0∈RnN×n和W^r=0∈R4nN×n,其中 n = 7 n=7 n=7。误差变换函数的参数设置为 δ 0 = 0.2 , δ ∞ = 0.04 , a = 1 , σ = 1 \delta_{0}=0.2,\delta_{\infty}=0.04,a=1,\sigma=1 δ0=0.2,δ∞=0.04,a=1,σ=1。
在第一个实验中,使用没有神经网络学习的控制器控制机械臂,并记录实际的关节角度。然后,在第二个实验中,使用所提出的神经网络学习的控制器来控制机械手。两个实验中的参考和实际关节角度如图6所示,相应的跟踪误差如图7所示。( 图6和图7就不贴出来了,具体可以看原文,主要体现了使用神经网络控制器后,七个关节的跟踪误差更小)当不使用神经网络时,跟踪误差相对较高,这是由于末端执行器夹持的有效载荷引起的,而在第二个实验中,机械手的每个关节都很好地跟踪参考轨迹,并且随着补偿扭矩的增加,所有跟踪误差都减少到区间[-0.04,0.04](rad),如图8(a)所示。机械手动力学的重力项是有效载荷影响的主要部分,因此,我们特别显示了图8(b)中 W ^ G \hat W_{G} W^G每列的范数。我们可以看到,由于神经网络产生的转矩仍然不能补偿未知动力学的影响,因此权重矩阵的每个列向量的范数都会递增。然而,所有范数的上升速度都随着扭矩补偿的增加而降低。
第二组实验旨在验证基于DMP的运动模型。测试了泛化能力和学习表现。在这些实验中,通过引导机械臂操作来进行演示。
在这个实验中,示教者演示如何将水倒入放在桌子上的杯子中,如图9所示。演示过程重复五次。关节
w
0
、
w
1
、
s
0
和
e
1
w0、w1、s0和e1
w0、w1、s0和e1移动,而其他关节固定。关节角度被记录并用于学习修改后的DMP。DMP模型的参数设置为
τ
s
=
1
,
l
1
=
25
,
l
2
=
10
,
α
1
=
α
2
=
8
\tau_{s}=1,l_{1}=25,l_{2}=10,\alpha_{1}=\alpha_{2}=8
τs=1,l1=25,l2=10,α1=α2=8。
图9、倒水演示
学习结果如图10所示(我就不贴出来了)。从演示中再现了四个关节的运动,综合了这些演示的特点,使机器人能够成功完成倒水任务。随后,运动的目标被修改为向另一个杯子倒水。如图11所示(图11不贴出来了,看原文),每个关节角度的运动轨迹收敛到新的目标,并且保留了每个再现的轮廓。作者在机器人上测试了复现运动和泛化运动。如图12(a)所示,机器人成功完成了倒水任务,如图12的(b)所示的,机器人可以将水倒进另一个杯子中。
为了进一步验证基于DMP的运动模型的学习表现,作者为机器人设计了一个绘图任务;实验设置如图13(a)所示(不贴图了)。在这里,在示教者演示任务五次后,机器人需要在纸上绘制正弦曲线的图像。如图13(b)所示,演示是有缺陷的,曲线是不规则的。其中一个原因是演示者通过握住机器人的手腕来间接地在本文上绘图,这影响了绘图技巧的发挥。演示在任务空间中建模,机器人在学习后执行绘图任务(图14)。如图15(a)所示,在多次演示的情况下,运动模型再现了平滑曲线。我们还可以看到,由于传感器的测量误差,记录的轨迹发生了失真。如图15(b)所示,机器人绘制的曲线比演示的曲线更平滑,从而验证了基于DMP的运动模型的学习性能。
图15(b)、绘图结果,蓝色曲线是机器人在学习后绘制的。
本文开发了一种由运动生成和轨迹跟踪组成的新型机器人学习系统。由于DMP模型的泛化能力,素以选择它作为运动模型的基础。为了提高学习性能,采用GMM和GMR来估计运动模型的非线性函数。通过这种修改,该模型可以从特定任务的多次演示中提取更多的运动特征,并生成合成这些附加特征的运动。此外,设计了一个基于神经网络的控制器来克服未知有效载荷的影响,使机械臂能够更准确地跟踪生成的运动。所提方法在Baxter机器人上进行了实验验证,以测试本文提出的方法的性能,这些方法可以用于促进更高水平的机器人学习。在未来的工作中,我们将进一步将强化学习融入我们的系统,以提高机器人的学习能力。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。