当前位置:   article > 正文

大脑视觉信号被Stable Diffusion复现图像!“人类的谋略和谎言不存在了” | CVPR2023...

reconstructing visual experiences from human brain activity with stable diff
丰色 萧箫 发自 凹非寺
量子位 | 公众号 QbitAI

“现在Stable Diffusion已经能重建大脑视觉信号了!”

就在昨晚,一个听起来细思极恐的“AI读脑术”研究,在网上掀起轩然大波:

2c04bbd4abb909914a732910c62fe3ad.png

这项研究声称,只需用fMRI(功能磁共振成像技术,相比sMRI更关注功能性信息,如脑皮层激活情况等)扫描大脑特定部位获取信号,AI就能重建出我们看到的图像!

de74e576c1ff49b8a00ad3f5dbdf41bf.png

例如这是一系列人眼看到的图像,包括戴着蝴蝶结的小熊、飞机和白色钟楼:

deb59d0d9906f266c8cb2d28c36d9b07.png

AI看了眼人脑信号后,立马就给出这样的结果,属实把该抓的重点全都抓住了:

654351c10ab20acb4e516a1cb1123b8d.gif

再发展一步,这不就约等于哈利波特里的读心术了吗??

10cb47fb689fd4d8c261ba5fe304083f.png

更有网友感到惊叹:如果说ChatGPT开放API是件大事,那这简直称得上疯狂。

2fe24fcf2ceb4b9a062623afdacc63b4.png

所以,这究竟是怎么一回事?

用Stable Diffusion可视化人脑信号

这项研究来自日本大阪大学,目前已经被CVPR 2023收录:

ce7ff76e7a94c7225508e6665065e526.png

研究希望能从人类大脑活动中,重建高保真的真实感图像,来理解大脑、并解读计算机视觉模型和人类视觉系统之间的联系。

要知道,此前虽然有不少脑机接口研究,致力于从人类大脑活动中读取并重建信号,如意念打字等。

然而,从人类大脑活动中重建视觉信号——具有真实感的图像,仍然挑战极大。

例如这是此前UC伯克利做过的一项类似研究,复现一张人眼看到的飞机片段,但计算机重建出来的图像却几乎看不出飞机的特征:

13d24725c74624b70f909171c54e8a77.png
图源UC伯克利研究Reconstructing Visual Experiences from Brain Activity Evoked by Natural Movies

这次,研究人员重建信号选用的AI模型,是这一年多在图像生成领域地位飞升的扩散模型

当然,更准确地说是基于潜在扩散模型(LDM)——Stable Diffusion。

整体研究的思路,则是基于Stable Diffusion,打造一种以人脑活动信号为条件的去噪过程的可视化技术。

它不需要在复杂的深度学习模型上进行训练或做精细的微调,只需要做好fMRI(功能磁共振成像技术)成像到Stable Diffusion中潜在表征的简单线性映射关系就行。

它的概览框架是这样的,看起来也非常简单:

仅由1个图像编码器、1个图像解码器,外加1个语义解码器组成。

b38c41fcc0389b3eb38f5027173ce513.png

具体怎么work?

如下图所示,第一部分为本研究用到的LDM示意图。

其中ε代表图像编码器,D代表图像解码器,而τ是一个文本编码器(CLIP)。

9148e6b7eb86a4d16e5940688cdf5893.png

重点是解码分析,如下图所示,模型依次从大脑早期(蓝色)和较高(黄色)视觉皮层内的fMRI信号中,解码出重建图像(z)和相关文本c的潜在表征。

然后将这些潜在表征当作输入,就可以得到模型最终复现出来的图像Xzc

fe7152d6d6015d72a4b7ba1052ea75a4.png

最后还没有完,如编码分析示意图,作者还构建了一个编码模型,用来预测LDM不同组件(包括图像z、文本c和zc)所对应的fMRI信号,它可以用来理解Stable Diffusion的内部过程。

93cc6110254496b93c71e9a15f0b7c89.png

可以看到,采用了zc的编码模型在大脑后部视觉皮层产生的预测精确度是最高的。(zc是与c进行交叉注意的反向扩散后,z再添加噪声的潜在表征)

da0d72d8901c1986bbc8a5abbe586f1a.png

相比其它两者,它生成的图像既具有高语义保真度,分辨率也很高。

b5596f32166a0ec4b91e146751972935.png

还有用GAN重建人脸图像的

看完这项研究,已经有网友想到了细思极恐的东西:

这个AI虽然只是复制了“眼睛”所看到的东西。

但是否会有一天,AI能直接从人脑的思维、甚至是记忆中重建出图像或文字?

72f1fc5cf2d838a59029b2f60aa31b8a.png

“语言的用处不再存在了”

1be9ce41a5273cb755feca6589173754.png

于是有网友进一步想到,如果能读取记忆的话,那么目击证人的证词似乎也会变得更可靠了:

3a4376f60aa7a29f266b2998a1357264.png

还别说,就在去年真有一项研究基于GAN,通过fMRI收集到的大脑信号重建看到的人脸图像:

e8d12c286002bbeaf2005f1bfe7a75dd.png

不过,重建出来的效果似乎不怎么样……

765b4d9908eb3642622e0f2f07114c9c.png

显然,在人脸这种比较精细的图像生成上,AI“读脑术”还有很长一段路要走。

对于这种大脑信号重建的研究,也有网友提出了质疑。

例如,是否只是AI从训练数据集中提取出了相似的数据?

1e23800d61f5fd4548e092656c2459ad.png

对此有网友回复表示,论文中的训练数据集和测试集是分开的:

de09d76a7b7b3c3fb30dfb855af204f6.png

作者们也在项目主页中表示,代码很快会开源。可以先期待一下~

12c07224bd20a0afc99fa87343708d2c.png

作者介绍

本研究仅两位作者。

一位是2021年才刚刚成为大阪大学助理教授的Yu Takagi,他主要从事计算神经科学和人工智能的交叉研究。

最近,他同时在牛津大学人脑活动中心和东京大学心理学系利用机器学习技术,来研究复杂决策任务中的动态计算。

另一位是大阪大学教授Shinji Nishimoto,他也是日本脑信息通信融合研究中心的首席研究员。

研究方向为定量理解大脑中的视觉和认知处理,谷歌学术引用3000+次。

edf863445356733f49dda260dd730357.png

那么,你觉得这波AI重建图像的效果如何?

项目地址:
https://sites.google.com/view/stablediffusion-with-brain/

参考链接:
[1]https://twitter.com/SmokeAwayyy/status/1631474973243236354
[2]https://twitter.com/blader/status/1631543565305405443
[3]https://news.berkeley.edu/2011/09/22/brain-movies/
[4]https://www.nature.com/articles/s41598-021-03938-w

「中国AIGC产业峰会」启动

邀您共襄盛举

「中国AIGC产业峰会」即将在今年3月举办,峰会将邀请AIGC产业相关领域的专家学者,共同探讨生成新世界的过去、现在和未来。

峰会上还将发布《中国AIGC产业全景报告暨AIGC 50》,全面立体描绘我国当前AIGC产业的竞争力图谱。点击链接或下方图片查看大会详情:

被ChatGPT带飞的AIGC如何在中国落地?量子位邀你共同参与中国AIGC产业峰会

4b30321ec8f815d2fc6a9dc40f685e7b.gif

点这里

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/菜鸟追梦旅行/article/detail/397897
推荐阅读
相关标签