赞
踩
今天写点关于 "one-shot" learning(就是从一个(或极少个)样本学习而非现在普遍的大量数据集,毕竟,一个小孩能通过一个图片知道什么是长颈鹿,而机器却需要大量的样本!) 的东西
Matching Networks for One Shot Learning这篇论文是来自谷歌DeepMind的一篇论文,主要在于解决:基于小样本去学习归类(或者别的任务),并且这个训练好的模型不需要经过调整,也可以用在对训练过程中未出现过的类别进行归类(这里可能有些绕,稍后会结合符号定义做详细的解释,其实个人觉得这个任务也颇有些“迁移学习”的感觉)。
PS. 本文的大部分内容参考自Andrej Karpathy关于这篇论文的读文笔记。也许可以看做加了自己的理解和一些补充的笔记翻译?然后,这篇论文的说话方式有点晦涩难懂,就连Andrej Karpathy也在笔记中多次提到作者的各种地方说的不太清楚,所以本人的理解也难免有错,希望有意见不一致的地方大家可以多多交流。
PPS. 其实这篇论文是下周要讲的paper reading,所以也可以说是对自己的屁屁踢做了个翻译 []~( ̄▽ ̄)~*,虽然毕设是做对抗样本,但是平时的一些进度还是要跟着组里的方向来的。
训练一个端到端的类似于nearest neighbor的分类器,之所以说类似,是因为虽然整体思想是很相像的,但对于NN而言,样本是什么输入就是什么,但是在这里需要对样本学习一个样本的表示,把他们编码一下。
训练过程:给定一个有k个样本的支撑集
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。