赞
踩
Zero-shot 、One-shot 、Few-shot Learning策略主要是用于解决神经网络模型因为训练数据少,导致模型泛化能力差的问题。
在训练集中没有某个类别的样本,但是在测试集中出现了这个类别,那么我们就需要模型在训练过程中,即使没有接触过这个类别的样本,但是仍然可以通过对于这个类别的描述,对没见过的类别进行分类,目的是让模型对于要分类的样本一次也不学习的同时具有人类的推理能力。
例:假设我们的模型已经能够识别马,老虎和熊猫了,现在需要该模型也识别斑马,那么我们需要告诉模型,怎样的对象才是斑马,但是并不能直接让模型看见斑马。所以模型需要知道的信息是马的样本、老虎的样本、熊猫的样本和样本的标签,以及关于前三种动物和斑马的描述。
公司门禁用了人脸识别,你只提供一张照片,门禁就能认识各个角度的你,这就是 one-shot。可以把 one-shot 理解为用 1 条数据 finetune 模型。在人脸识别场景里,one-shot 很常见。
在模型训练过程中,如果每个类别只有少量样本(一个或者几个),研究人员希望机器学习模型在学习了一定类别的大量数据后,对于新的类别,只需要少量的样本就能快速学习,这就是 Few-shot Learning 要解决的问题。本质上是让机器学会自己学习(learn to learn),其实就是通过判断测试样本与训练样本的相似性,来推测测试样本属于什么类。
学习的目的是理解事物之间的不同,学会区分不同事物。给两张图像,不让学会是什么,而是学会是否相同。
HRFL 这套方法,本质目的是:如何把机器的知识与人的知识对齐。然后开创了一个新的方向,叫 alignment。openAI 在内的好多大佬,都在追这个新方向。
注:这里的 alignment,与人脸识别里的 alignment,完全不一样。
参考:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。