赞
踩
详细参考《动手学深度学习》P233,8.4节多GPU计算。
for i in len(gpu_params[0])):
allreduce((gpu[params[c][i].grad for c in range(len(ctx))])
如果把batch_size调大1倍,则学习率也需要调大一倍,因为模型更新的次数少了一倍。
注意显存和内存的数据是存储在不同的地方,必须通过某些内置函数才能实现两者之间的数据拷贝。
比如训练样本数据,用CPU处理后,就需要把它拷贝到GPU上。
各个GPU也只能访问自己显存内的数据。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。