赞
踩
归一化在深度学习中的应用包括批量归一化(Batch Normalization)、层归一化(Layer Normalization)、组归一化(Group Normalization)和实例归一化(Instance Normalization)等。这些技术在不同的网络结构和任务中有着广泛的应用,是现代深度学习架构中不可或缺的一部分。
Batch Norm:把每个Batch中,每句话的相同位置的字向量看成一组做归一化。
Layer Norm:在每一个句子中进行归一化。
Instance Norm:每一个字的字向量的看成一组做归一化。
Group Norm:把每句话的每几个字的字向量看成一组做归一化。
其实只要仔细看上面的例子,就很容易能想到NLP中每一种norm的优缺点:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。