赞
踩
作者:牛婉杨
在这个一言不合就斗图的年代,表情包已经成为了人人必需的“装备”。
最近,不少网友就发现一位外国友人做了个AI表情包生成器,坦白讲这个生成器依然逃不过“沙雕”的标签,就像之前的“狗屁不通文章生成器”和“读后感生成器”。
它的首页是这个样子的????有48个表情包模板可供使用。
传送门:
https://imgflip.com/ai-meme
看到这里有没有朋友好奇“Meme”是什么?事实上,“Meme”就是我们常说的表情包。
网站标题“This Meme Does Not Exist”也延续了之前各种StyleGan生成网站的“不存在”系列,意喻“不存在的表情包”。
接下来就让我们直奔主题,我倒要好好看看它能给表情包配上什么字~
首先,大致扫了一眼,发现最眼熟的就是第二行中间那只doge,确认过眼神,就它了!选中图片之后,就生成了以下表情包:
这个文字配的嘛,大家仔细品,还是比较符合我们日常的表情包风格。再点击刷新,AI又会给这张图配上新的文字,下面这张送给吃货朋友们:
刷新了几次以后,细心的网友发现,出现次数最多的词汇有“wow”,“such”,“much”等一些百搭词汇,而这个AI文字生成器的水平也是参差不一,有时觉得这个表情包可以拿来用,有时就觉得很荒谬,get不到有趣的点。
除此之外,我们还可以在文本框里输入一些文字提示,来帮助它生成我们想要的表情包。比如我们输入“hello”,就生成了这样子的表情包:
这...真的难为它了。要不咱输入一点符合表情包逻辑的单词?比如:
立马就有内味儿了是不是!
1
这个网站除了生成表情包还能干啥?
从这个网站首页看来,似乎还是一个表情包发烧友的交流社区?大家可以把自己制作的表情包发布到网站,用户可以根据喜好来投票。
AI生成表情包只是这个网站的一个项目,除此之外还可以手动上传表情包背景,以及输入表情包内容。但这个网站相比国内微信表情包搜索和某图的一键表情包p图,简直弱爆了~
说了这么多,还没有介绍项目作者。这个表情包生成器的作者是Dylan Wenzlau,也是这个表情包素材平台Imgflip的创始人。他在Medium上发表的一篇文章中,详细介绍了表情包生成器的原理,是通过深度卷积网络制作的。
Medium超详细教程:
https://towardsdatascience.com/meme-text-generation-with-a-deep-convolutional-network-in-keras-tensorflow-a57c6f218e85
深度卷积网络是一种常用于图像的神经网络,Wenzlau使用机器学习平台Tensorflow和Keras对其进行了训练,建立了一个能匹配48种不同表情包格式的文本生成模型。他还在Github上发布了完整的代码供大家尝试。
Github指路:
https://github.com/dylanwenzlau/ml-scripts/tree/master/meme_text_gen_convnet
2
表情包质量如何,数据集来决定!
数据集简直就是AI生成文案的灵魂啊,要想表情包更接地气,就要尽可能多的收集数据。
就Wenzlau所说,在做这个生成器时,选取了96万个表情包文案作为训练数据。为了使文字生成的更加精确,Wenzlau以字母为单位作为一个训练样本,而不是一个单词。他还表示,以字母为单位训练的成果比以单词为单位要有趣多了!因为对于英文来说,以字母划分更加细致,能够激发AI更多的可能性。
实际上,表情包生成器并不是第一次出现,两年前斯坦福大学的Abel L. Peirson V和E. Meltem Tolunayl就写了一篇关于使用深度神经生成表情包的论文。他们为此还做了一个APP,称之为首个可以用AI生成表情包的应用程序。
他们在论文中写道,数据集对这个生成器来说太重要了。
他们的数据集由大约40万张带有标签以及说明的图片组成。其中有2600个专门的图片-标签组合,是他们从Python脚本中获得的。
如上图所示,数据集中一张图片对应一个标签和相关的说明,“手把手”教AI学习。
来看看这个AI的作品吧,你pick哪张呢?
目前看来,AI的这些配字,就像一个青涩的孩子说出来的话,有些很可爱,有些又很荒谬。
但事实上,幽默感确实很难评判,大都因人而异,还带有一些主观色彩。
这篇论文的作者也指出,他们的这项工作十分基础,要想表情包更加接地气,还要经过更长时间的研究。另外,他们还指出探索视觉注意力机制在表情包生成中的作用,也是一个不错的研究方向。
RECOMMEND
推
荐
阅
读
AI社群
对AI感兴趣的小伙伴,
网易智能有12个不同垂直领域社群等你来
添加智能菌微信:kaiwu_club
和我们一起探讨AI的故事~
网易新闻 | 智能工作室出品
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。