赞
踩
发布时间:2023.03
AIGC:AI Generated Content,AI 生成内容,即使用人工智能生成内容,可以生成文字、图像、音频、视频、代码等。
AIGC 是使用 Generative AI (GAI,生成式 AI) 的方式,能够模拟人类的方式,在很短的时间内创作大量的内容。比如现在很火的如下两个模型:
生成式 AI 需要做什么事情:
现在的 AIGC 和之前的工作相比有哪些优势:
1950s,隐马尔科夫模型(HMMs)和高斯混合模型(GMMs),可以生成序列数据,如台词或时间序列
2017 年之前,NLP 和 CV 的发展也分了两条道路:
2017 年之后,NLP 和 CV 的一部分工作重心逐渐有了合并于 Transformer 的趋势:
不仅如此,Transformer 也能够通过整合不同领域的信息来实现多模态任务
1、Transformer
Transformer 可以作为 backbone 或网络结构来实现多种不同模型的 SOTA,如 GPT-3[9]、DALL-E-2[5]、Codex[2] 和 Gopher[39]。
Transformer 结构大多是基于自注意力机制的 Encoder-Decoder 结构,Encoder 结构用于提取输入内容的隐式表达,Decoder 用于从隐式表达中生成输出。
Transformer 中的自注意力机制用于提取输入序列中不同 word 或 patch 的之间的关系。
Transformer 的另外一个优势在于其弱偏置归纳性,即引入的归纳偏置少,模型不容易很轻易的到达上限,故此使用大数据集进行预训练的 Transformer 能够达到很好的效果,并用于下游任务。
2、预训练的语言模型
Transformer 的结构目前已经成为语言模型的首选结构,也可以将不同方法分为两类:
尽管使用了大量的训练数据,AIGC 也可能并不能总是很好的理解人类的意图,比如实用性和真实性。
为了让 AIGC 的输出更接近于人类的偏好,从人类的反馈中不断进行强化学习也很重要, reinforcement learning from human feedback
(RLHF),比如 Sparrow、InstructGPT、ChatGPT 都使用了强化学习。
RLHF 的整个过程包括三个步骤:
现在发展成熟的硬件、分布式训练、云计算等都为大模型的产生提供了很大的支持
单模态生成模型,就是模型只能接收单一类型的输入,如文本或图像,然后产生对应类型的输出。
生成式语言模型是 NLP 模型的一种,该模型所要实现的就是经过训练后能够根据其之前所接触过的模式和结构,生成可读的人类语言。
可以用于对话系统、翻译、问答系统等。
现有的 SOTA 预训练语言模型可以分为:
1、Decoder models
现有表现较好的基于 decoder 的自回归语言模型是 GPT[61],是使用 self-attention 的 Transformer 模型。还有 BERT、T5、InstructGPT 等。
2、Encoder-Decoder models:
现有的表现较好的是 Text-to-Text Transfer Transformer(T5)[56],同时使用了基于 Transformer 的 Encoder 和 Decoder 来进行预训练。
还有例如 Switch Transformer、ExT5、HELM 等
1、GAN,Generative Adversarial Networks(GANs)
GAN 是图像生成领域很流行的一个模型,包括两个模块:
典型方法有:
2、VAE,Variational AutoEncoders
VAE 是生成模型,其原理是尝试学习数据的概率分布并学习如何重建数据使得其更接近原始输入数据。
3、Flow
Normalizing Flow 是一种基于分布变换的方式,使用一系列可逆和可微的映射将简单分布变成复杂分布
4、Diffusion
Diffusion model 是由通过逐步向输入图像中添加高斯噪声的前向扩散,和逐步恢复原图的逆向去噪组成的,是目前 SOTA 的方法。
多模态生成的目标是学习一个模型,通过学习从数据中获得的多模态连接和交互来生成原始的模态。
不同模态的连接和交互是非常复杂的,这也使得多模态表示空间比单模态表示空间更难学习。
下面会涉及到各类 SOTA 多模态模型:
Encoder-decoder 结构会经常被用于解决计算机视觉和自然语言处理的多模态生成问题
视觉语言 Encoder,多模态的结合可以直观的想象通过将两个不同模态的预训练模型结合起来即可,主要有两种:
Concatenated Encoder:
Cross-aligned Encoder:
视觉语言模型 Decoder,能够通过给 encoder 得到的编码表达来生成特定模态的表达,主要包括:
To-text decoders,通常从 encoder 中接收文本上下文表达,并解码为一个句子,主要有如下两种模型,随着大型语言模型的出现,现在很多结构都使用冻结语言 decoder 的方式。
To-image decoders,表示给定一条指令,生成对应的图像。用的较多的同样是 encoder-decoder 结构,encoder 用于学习语言信息,decoder 用于合成图像。一般有 GAN-based 和 diffusion-based 方法。
文本音频生成
文本音乐生成
Text Code Generation 可以根据输入的语言描述来说自动的生成可用的代码
可以和使用者进行基于文本的对话交互,一般使用语言模型来理解并根据问题进行语言的回答。
如微软小冰 Xiaoice,谷歌 Meena,微软 ChatGPT。
AI 艺术生成是创作艺术品,一般都使用大型数据集在现有的艺术品上进行学习,学习到一定的规则后,模仿相关创作规则来产生新的艺术品。
如 OpenAI 的 DALL-E 系列,Stability.ai 的 DreamStudio,谷歌的 Imagen 等。
音乐生成是指使用学习到的相关音乐创作规则,产生新的音乐创作。
如 OpenAI 的 Jukebox
基于 AI 的编程系统包括生成完整的代码、源码和伪代码等
OpenAI 的 CodeGPT 是一个开源的基于 Transformer 结构的模型,还有 CodeParrot、Codex 等。
还可以用于教育方面,比如生成教学视频、学术论文等。
---------------------
作者:呆呆的猫
来源:CSDN
原文:https://blog.csdn.net/jiaoyangwm/article/details/129448529
版权声明:本文为作者原创文章,转载请附上博文链接!
内容解析By:CSDN,CNBLOG博客文章一键转载插件
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。