造就第435位讲者 王琦
碁震KEEN创始人兼CEO
GeekPwn活动发起和创办人
大家看一下这个图片,里面有两个人,一个人的周围有一个紫色的框,上面写了person,另外一个没有。
这其实是一个智能的监控摄像,使用YOLO v2这样一个目标检测算法正确识别出了左边有一个人。可是右边明明站了一个人却没有被标记出来,这到底出了什么问题?
大家能看到两个人最大的区别就在于右边的人其实挂了一个东西。
这两位都是来自比利时的大学生,他们制作了一个40×40公分的图片,而这个图片起到的作用就是对抗。目的就是让目标检测算法失效,使机器无法识别出右边的人。
也就是说,其实我们可以在智能监控里实现隐形。
目前,智能监控应用的场景比较多,日常监控里可以检测到一个人大概是什么年纪,是男性还是女性,穿没穿白衬衫,有没有戴眼镜等等,包括路上的车辆,也可以识别出来车的一些行为。但是如果加上了这样对抗的东西,它有可能就会失效。
事实上,这样的研究成果并不是第一次出现,但是这两个大学生用一个非常有趣的方式把它展示出来,并且用了两个字叫做隐身。
对于普通人来讲,这个隐身可能不能代表什么,但是如果在一个关键的安全场景里出现了隐身,可能就会带来诸多安全隐患。这就是机器学习在安全场景里可能面临的一个情况。
大家看一下这个视频,放置第一个东西的时候,它已经被识别出是一个香蕉。当放到第二个特别显眼的图片的时候就完全失效,它几乎100%认定这是一个烤面包机。
这是2017年12月Google的研究员做的一个实验,针对的是VGG16模型的检测。
同样是被欺骗,它的检测是通过目标学习的方法实现的,但是机器学习面临了一个问题,如果加入了另外一个比较显眼的东西,机器就会产生误判。
这样的错误无伤大雅,因为直至今天,AI的发展其实非常初级,它有可能出现错误。
但是放在安全领域,我们不认为它是一个简单的错误,为什么呢?
我们做人工智能的目标是为了让机器越来越像人,可是在实验中,我们明显看到人不会犯错,而机器会犯错啊。
出现的这种情况就需要我们就要反思一下,机器学习在这个过程当中到底出现了什么问题?
人类学习周围的东西是通过视觉,从出生开始,我们就不断地观察学习周围的人和物。但是,我们人也会犯错,就像左边这张图片,人眼看上去会产生一种错觉,认为这些图案不是平行的,而事实上它的确是平行的。
从生物学的角度来说,它属于是一种幻觉,关于人之所以出现这种问题的原因其实非常复杂,到现在还没有定论。但如果把这个图片交给机器来判断是非常简单的,它不会出错。
这时你会发现,左边的图片,人会犯错,而机器不会,右边的图片,人不会犯错,而机器会。
这两种截然不同的结果就是我们人类学习和机器学习的很大的一个差异。
其实到目前为止,我们对机器学习,对Alpha Go为什么能够战胜人类的原因并不太清楚,机器犯错的原因我们也不知道。
这种情况下,如果在一些关键的场景里面,比如说飞机、汽车遇到这种场景,可能就会导致灾难。这就是我们需要担心的,我们也必须要了解它出错的原因是什么。郑州妇科医院×××:http://mobile.zzchxb110.com/
机器会犯错,机器也会“造假”
在AlphaGo之前,机器学习的视觉已经发展得比较好了,它在错误判断率,分类器这方面已经超过人类。但是在人工智能里有不同领域的专家,包括脑神经、机器学习等等,每个领域其实是有冲突的。