赞
踩
欢迎来到我对OpenAI最新突破性成果——Sora模型的探索之旅!Sora不仅是技术的巅峰之作,更是艺术与科学完美融合的典范。这个革命性的模型将文本描述转化为动态视频,不仅展现了人工智能技术的巨大潜力,也为我们揭开了创造力的新纪元。—— AI Dreams, APlayBoy Teams!
博客来源:揭秘OpenAI新巨作Sora:技术报告全解析+训练流程+官方视频 - 知乎
在这篇博客中,我首先对Sora进行一番初探,深入探究其如何在人工智能领域树立了一个重要的里程碑。接下来,我会详细介绍Sora的技术报告,并串联起它的整个训练流程,以便向您展示其背后的核心技术原理。我们将逐一解读Sora训练过程中涉及的各个模块,并结合官方引用文献来推测这些技术模块的具体实现方式。
通过这篇博客,我不仅希望能帮您深入理解Sora的技术细节,更想激发您对人工智能未来无限可能性的思考。同时,我也清楚自己的认知和理解是有限的。如果您在这个领域具有深厚的专业知识,我非常欢迎并感激您对这篇内容中可能存在的不足之处给予指正和建议。
在人工智能的领域中,不断有新技术出现,推动着这个领域向前发展。在这些革新中,OpenAI最近推出的Sora模型无疑是其中最激动人心的。Sora不仅仅是一个AI模型,它是对人工智能能力的一次巨大飞跃,标志着我们进入了新的创造性AI应用时代。
Sora是一个先进的AI模型,它能够将文本描述转化为相应的视频内容。这种能力意味着你可以给Sora一个故事、一个场景描述,甚至是一个简单的想法,Sora都能将其变为一段生动的视频。这不仅代表了数据处理和视频生成技术的重大突破,也展现了AI在理解和创造视觉内容方面的巨大潜力。
Sora的出现是AI在文本到视频转换方面的一大步。在此之前,虽然我们已经看到了像DALL·E、Stable Diffusion和Midjunery这样的模型可以生成静态图像,也看到了像gemmo、pika和runway这些生成动态视频的工作。这不仅在技术上,而且在效果上Sora都实现了质的飞跃,也为未来AI的应用开辟了新的道路。
目前,Sora的主要功能是将文本输入转换成视频输出。这包括但不限于将故事、说明或命令转化为相应的视频。Sora的目标是创建一个能够理解复杂文本描述并将其转化为高质量视频内容的系统。Sora模型的核心目标不仅仅局限于将文本转换为视频,它的愿景更加宏大和深远。官方的声明指出,Sora的最终目标是向一个“通用物理世界模拟器”的方向迈进。这意味着Sora旨在成为一个能够模拟真实世界的复杂互动和动态环境的强大工具。
虽然目前Sora在模拟物理和数字世界及其中的对象、动物和人类方面还存在一定的局限性,但研究团队坚信,通过继续扩大视频模型的规模,Sora将能够更加精准和细致地捕捉现实世界的各种细节。这不仅包括视觉上的再现,更涉及到对物理互动规律的理解和模拟。
在Sora的技术报告中,OpenAI详细介绍了这一模型的开发背景、核心技术和未来的应用前景。这份报告不仅展示了Sora在技术上的创新,也为我们提供了对其深层次理解的机会。
技术报告首先明确了Sora的目标:创建一个能够将文本描述转化为高质量视频的AI模型。报告详细讨论了Sora在处理视频数据方面的独特方法,包括如何通过机器学习技术理解和生成视频内容。特别地,报告指出了Sora在模拟真实世界互动和动态环境方面的潜力,以及其向通用物理世界模拟器迈进的愿景。
Sora的架构是一种结合了扩散模型和变换器技术的创新设计。扩散模型在Sora中用于逐步细化和完善视频帧,而Transformer则负责处理和解析复杂的文本输入。这种结合使得Sora不仅能够生成视觉上吸引人的视频,还能确保视频内容与文本描述紧密相连。
Sora的设计理念基于对当前AI技术局限性的深刻理解和对未来发展的广阔视野。报告强调了在模型设计中考虑的关键方面,如数据的多样性和质量、模型的可扩展性和效率,以及在生成过程中确保内容的真实性和准确性。Sora的这种设计不仅旨在提高视频生成的质量和效率,也考虑到了未来在更广泛应用领域中的潜力,特别是在模拟复杂现实世界场景方面。
通过这份技术报告,我们可以更深入地了解Sora的技术特点和它在未来可能带来的革新。Sora的出现预示着人工智能在视觉内容创作和模拟现实世界方面的新纪元。
基于对OpenAI发布的官方技术报告的深入解读和推测出模型训练流程,如下:
收集视频数据与标注信息:Sora的训练起始于对大量视频数据的收集。在这些数据中,有的视频已经附有标注信息,而其他一些则没有。这些数据为Sora提供了学习和理解多样化视觉内容的基础。
训练图片字幕模型:针对未标注的视频,Sora通过训练一个专门的图片字幕模型来生成相应的视频描述。这个模型能够观察视频内容并自动产生描述性文字,填补标注信息的空白。
利用GPT-4丰富视频描述:为了提升视频描述的质量和细节,Sora运用了GPT-4模型。这一步骤旨在通过GPT-4增强自动生成的描述和现有标注,使得视频描述更加全面和细致。
切分视频为Patches:经处理的视频随后被细致切分成称为“视频Patches”的小块。这一策略使得Sora可以集中关注视频的每个细节部分,为后续学习和生成打下坚实基础。
应用视频压缩模型:视频Patches进一步经过视频压缩模型处理,被转换和压缩至高效的潜在空间。这一步骤是为了简化后续的处理和学习流程,这个视频压缩模型会同步输出视频压缩模型和视频解码模型。
潜在空间中的视频数据处理:在这个潜在空间里,Sora访问和利用了用于生成新视频的压缩数据,为视频生成提供了原材料。
应用扩散模型与Transformer进行训练:Sora利用具有Transformer结构的扩散模型在潜在空间上进行训练。在这个阶段,输入是文本描述和具有随机噪音的patches,而输出是视频在潜在空间的表现形式。
视频恢复:使用在视频压缩模型训练过程中,同步得到的视频解码模型解码即可获得高清视频。
依赖强大的硬件和计算资源:整个训练过程得以实现,依赖于强大的计算资源和硬件支持。这些资源为处理大规模数据和运行如Sora这样的复杂模型提供了关键的支持。
Transformer结构是一种深度学习模型的架构,最初是为了改进机器翻译任务而设计的。现在,它被广泛应用于各种不同的领域,包括Sora的其它几个组件,图片字幕模型、视频和图片压缩模型,以及Sora扩散模型,大概率都是使用的Transformer结构。
下面我简单解释Transformer结构的基本原理:
Token或patch化: 无论是处理文本、图像还是视频数据,Transformer模型的第一步通常是将输入数据转换成一系列的tokens或patch。对于文本来说,这些tokens通常是单词或字的部分;对于图像,这些tokens可以是图像的一部分(如图像块);而对于视频,这些patches可能是连续帧的一部分。这种转换使得Transformer可以以统一的方式处理不同类型的数据。
嵌入层(Embedding Layer): 在被转换为tokens之后,这些tokens会通过一个嵌入层。嵌入层的作用是将每个token转换成模型可以处理的固定大小的向量。对于文本tokens,这通常涉及将单词转换为高维空间中的点。
自注意力机制(Self-Attention): 自注意力是Transformer的核心。这个机制使模型能够权衡每个token与序列中其他tokens之间的重要性。这意味着模型可以学习每个token如何与其他tokens相关联,从而更好地理解整个序列。
多头注意力(Multi-Head Attention): 在这个阶段,模型不是只从一个角度学习输入tokens之间的关系,而是同时从多个不同的角度进行学习。这可以帮助模型在不同的子空间中捕捉到更丰富的信息。
位置编码(Positional Encoding): 由于Transformer本身不像循环神经网络(RNN)那样具有处理序列的顺序信息的能力,因此需要添加位置编码来提供序列中每个token的位置信息。这确保了模型能够考虑到tokens的顺序。
编码器-解码器结构: 大部分Transformer模型包含编码器和解码器两个部分。编码器负责处理输入tokens,而解码器则基于编码器的输出生成相应的输出。这种结构特别适用于像机器翻译这样的任务,其中输入和输出都是序列数据。
技术报告中提到,他们采用了在 DALL·E 3 中引入的重新标注技术应用于视频。首先训练一个高度描述性的字幕模型,然后用它为训练集中的所有视频生成文字说明。所以Sora中的字幕模型应该和DALL·E 3字幕模型相同,下面简单说一下DALL·E 3的字幕模型。
数据集重新标注
DALL·E3模型的开发涉及到对训练数据集进行重新标注的复杂过程。原始数据集中的文本描述(t)通常由人类作者编写,主要集中于描述图像(i)的主题,而忽略了背景细节或图像中的常识性关系。为解决这一问题,DALL·E3的研究团队采用了图像标注器生成的标题来提高描述的质量和细节,包括物体的存在、位置、数量、颜色、大小,以及图像中显示的文本等。
构建图像标注器
语言模型:基础的图像标注器与传统的语言模型类似,使用分词器将文本字符串转换为离散标记序列。基于这些标记,通过优化特定的似然函数来训练语言模型。
图像条件化:由于直接对成千上万的像素值进行条件化效率低下,研究团队采用了CLIP提供的压缩表示空间。这允许他们根据预训练的CLIP图像嵌入函数对语言模型进行图像条件化。
联合预训练:研究团队遵循了联合预训练的方法,同时训练标注器、CLIP和语言模型。尽管这样的模型是一个有效的标注器,但它仍然展现出对描述细节不够积极的问题。
微调标题生成器
偏向生成实用图像描述:为了改善图像生成数据集中的标题,团队微调了标题生成器,使其偏向于生成对文本到图像模型学习更有用的描述。
不同类型的合成标题:通过在不同数据集上进行微调,研究团队生成了两种类型的合成标题:一种是简短且集中于图像主题的“短合成标题”,另一种是描述包括周围环境、背景、图像中文字、风格、颜色等在内的详细内容的“描述性合成标题”。
应用于数据集:一旦标题生成器被微调,它就被用来为文本到图像数据集中的每张图像生成一组合成标题,供后续实验使用。
在Sora模型的训练流程中,视频数据的切分(即patch切分)是一个关键步骤。在Sora的技术报告中,与视频切分处理相关的工作主要引用了“ViViT: A Video Vision Transformer”这项研究。这项工作可以帮助我们更好地理解Sora模型中视频patch切分的过程和意义。
核心内容
ViViT提出了基于纯Transformer的模型,用于视频分类任务,借鉴了近期图像分类领域中该类模型的成功经验。这个模型从输入视频中提取时空spatiotemporal tokens,然后通过一系列Transformer层进行编码。关键在于,为了处理视频中遇到的长序列标记,作者提出了几种有效的模型变体,这些变体将输入的空间和时间维度进行了分解。
切分策略
分层结构对视频进行处理
分层结构中的切分
这个工作中对比了四种不同的视频切分方法,并总结出了最有效的切分策略。这一策略的核心在于采用了分层结构,先对视频的空间信息进行处理,再处理时间信息。
分层处理:相较于传统模型,这种切分方式采用了分层结构,使得模型先聚焦于空间信息的处理,随后再处理时间维度。这种方法提高了处理效率,同时保留了视频数据的关键信息。
嵌入(Embedding)的灵活性:虽然论文并没有具体说明如何进行空间和时间信息的嵌入,但从实验结果可以看出,存在多种有效的嵌入方法。这表明Sora模型在处理视频数据时具有较高的灵活性和适应性。
参数和计算量的平衡:虽然这种方法增加了模型的参数数量,但实际的计算量却大幅下降。这是因为时间维度的处理可以相对简化,由于采用了分层处理,模型的总体复杂度从
“Late Fusion”方法:这种切分策略属于“late fusion”的范畴,即在处理过程的后期合并不同维度的信息,进一步提升了模型处理视频数据的能力。
对Sora模型的影响
在Sora技术报告中,特别提到了这项工作中的视频切分处理方法。由于Sora需要处理大量视频数据,有效的视频切分和编码策略对于提高模型的效率和准确性至关重要。这项工作中提出的时空标记提取和Transformer层的应用,为Sora如何高效处理视频数据提供了重要的参考。
推测的视频压缩技术
在Sora模型的技术报告中,对视频压缩的引用基于较早的工作《Auto-encoding Variational Bayes》。然而,考虑到变分自编码器(VAE)技术近十年来的发展,我们可以推测Sora模型在视频压缩方面可能采用了更为先进的方法,如改进版的VAE或向量量化变分自编码器(VQ-VAE-2)。
视频压缩技术
采用三维空间的VAE/VQ-VAE-2:由于Sora处理的是视频数据,所以相较于处理静态图像的二维VAE,Sora很可能采用了将二维扩展到三维的VAE或VQ-VAE-2。这种扩展虽技术上可行,但伴随着计算量的大幅提高。
处理挑战:将VAE技术从二维扩展到三维的主要挑战在于如何有效处理增加的计算复杂度。这意味着需要更强大的硬件支持和更高效的算法优化来处理这些更大规模的数据。
压缩效果:使用这种高级的VAE或VQ-VAE-2可以实现对视频数据的有效压缩,将原始视频数据转换为更加高效和紧凑的潜在空间表示。这对于模型后续处理和生成高质量视频至关重要。
变分自编码器(VAE)
原理:VAE是一种基于神经网络的生成模型,它通过概率编码的方式将输入数据(如图像)映射到一个潜在空间。VAE由两部分组成:编码器和解码器。编码器将输入数据映射到潜在空间的分布上,解码器则从这个潜在分布中采样并重构输入数据。
目标:VAE的训练目标是最大化输入数据的对数似然,同时保证潜在空间的分布接近于先验分布(通常是正态分布)。这通过最小化重构误差和正则化潜在空间的分布来实现。
特点:VAE的特点是能够学习到输入数据的连续、平滑的潜在表示,这对于生成新的数据样本非常有用。
向量量化变分自编码器(VQ-VAE-2)
VQ-VAE架构
原理:VQ-VAE-2是VAE的一种改进版本,它采用了向量量化的方法来处理潜在空间的表示。在VQ-VAE-2中,潜在空间被量化为一组离散的向量,每个输入数据点都被映射到最接近的这些向量之一。
改进点:相较于传统的VAE,VQ-VAE-2能够更好地处理更复杂的数据结构,如高分辨率图像或视频。它通过量化潜在空间来提高了模型的表达能力和重构质量。
对Sora模型的影响
在Sora模型中,使用VAE或VQ-VAE-2进行视频数据的压缩,意味着能够将视频有效地表示为一个紧凑的潜在空间形式。这为后续的视频处理和生成提供了更加高效和精确的数据基础。尤其是在处理视频这种高维度数据时,VQ-VAE-2的应用可能特别重要,因为它能够更好地捕捉视频数据的复杂性和丰富性。
扩散模型简介
扩散模型原理
扩散模型是一种先进的生成模型,其设计灵感来源于物理中的扩散过程。这种模型通过向数据中逐步引入噪声并再逆向去除这些噪声,最终能够生成高质量的数据,如图像或音频。这个过程包括两个关键阶段:一个是“正向过程”,在这个阶段中,模型逐步向数据中添加噪声;另一个是“逆向过程”,模型在这个阶段中逐渐去除噪声,恢复数据到其原始状态。
U-Net架构
在扩散模型的发展中,U-Net架构起到了核心作用。U-Net最初设计用于医学图像分割,以其独特的对称结构和跳跃连接而闻名。在扩散模型中,U-Net被用作关键的神经网络架构,主要负责在逆向过程中逐步去除噪声,从而恢复清晰的数据。
U-Net优势
有效的特征学习:U-Net通过其多层次结构有效地学习并融合不同层级的特征,这对于复原高质量的数据至关重要。
增强的局部和全局信息融合:U-Net的跳跃连接设计帮助模型在去噪过程中更好地结合局部细节和全局上下文信息。
适应性强:U-Net架构对于不同类型和规模的数据都表现出良好的适应性,使其成为扩散模型中理想的选择。
扩散模型的发展和更新
扩散模型自提出以来已经经历了数代的更新和改进,每一代都在性能、效率和应用范围上带来了显著的提升,具体如下:
初代扩散模型:最初的扩散模型主要关注于基本的噪声添加和去除过程,为后续的改进奠定了基础。
DDPM(Denoising Diffusion Probabilistic Models):DDPM是扩散模型的一个重要进展,它通过更加精细的概率模型提高了去噪效率,使模型在图像合成等方面的应用变得可行。
DDIM(Denoising Diffusion Implicit Models):DDIM通过隐式方法优化了去噪过程,进一步加快了生成速度,同时保持了生成质量。
改进和高效的扩散模型:随着研究的深入,出现了更多改进的扩散模型,如改进的去噪扩散模型和针对特定任务优化的变体,提高了模型在特定应用上的性能。
扩散模型超越GAN:在与生成对抗网络(GAN)的比较中,扩散模型开始展现出在生成多样化和高质量图像方面的优势。
结合CLIP和无分类器方法的扩散模型:最新的扩散模型开始结合CLIP模型进行引导,以及采用无分类器方法,提升了模型在条件生成任务上的适应性和效果。
DALL-E 2和Stable Diffusion:这些是扩散模型最新的里程碑,它们在图像合成和文本到图像生成领域表现出色,尤其是在保持高质量输出的同时优化了计算效率。
DiT:Sora中使用的是最新的《Scalable Diffusion Models with Transformers》,它将Transformer架构融入扩散模型中,显著提升了图像生成的效率和质量。
Sora对扩散模型的引用中,提到了《Scalable Diffusion Models with Transformers》这个工作,这个工作是最新的扩散模型。
新型扩散模型架构
这篇论文提出了一种结合了Transformer架构的新型扩散模型。在这个模型中,传统的U-Net骨干网络被替换为在潜在patches上操作的Transformer。这一改进的核心创新在于把Transformer技术引入到图像扩散模型中,这不仅提升了模型的处理能力,还大幅提高了效率。
扩散变换器(DiTs)的可扩展性分析
作者从前向传递复杂度(以Gflops计量)的角度分析了DiTs的可扩展性。研究发现,那些具有更高Gflops的DiTs——通过增加Transformer的深度/宽度或增加输入tokens的数量——能够一致地实现更低的FID(Fréchet Inception Distance)。FID是一种衡量图像质量的指标,较低的FID意味着生成图像的质量更高。
优异的性能表现
这篇论文中提到的最大型号DiT-XL/2模型,在类别条件下的ImageNet 512×512和256×256基准测试中超越了所有先前的扩散模型,实现了2.27的前所未有的低FID。这一成果标志着该模型在图像生成质量方面达到了新的高度,尤其在高分辨率图像生成领域展现了其领先地位。
在探讨Sora模型如何灵活处理输出大小时,技术报告中提及了引用《Patch n’ Pack: NaViT, a Vision Transformer for any Aspect Ratio and Resolution》这一研究的核心理念和技术。基于这一引用,我们可以合理推测,Sora模型可能也采用了该研究中的技术,以实现对输出视频的分辨率和宽高比的灵活调整。
灵活的输入处理
NaViT(Native Resolution ViT)摒弃了传统的将图像调整至固定大小的做法,是一种通过特定的架构和技术创新来实现对任意分辨率和宽高比图像的灵活处理的Vision Transformer(ViT)。以下是NaViT实现灵活输入处理的具体方式:
序列打包(Sequence Packing):NaViT利用了一种名为“序列打包”的技术,类似于在语言模型中常用的例子打包方法。这种方法允许模型在训练时处理不同分辨率和宽高比的输入。具体来说,就是将来自不同图像的patch(即图像的小块或“tokens”)组合成一个序列,从而使模型能够同时处理多个图像片段。
遮蔽自注意力(Masked Self-Attention):为了防止不同图像片段间的不当交互,NaViT引入了额外的自注意力遮蔽。这种遮蔽确保了模型在处理一个图像序列中的不同片段时,只关注于同一图像内的相关部分。
分解和分数位置嵌入(Factorized & Fractional Positional Embeddings):NaViT重新设计了位置嵌入以适应可变的图像尺寸和宽高比。它采用了分解的方法来分别处理x和y坐标的位置嵌入,然后将这些嵌入相加。这种分解方法允许模型灵活地处理各种尺寸和宽高比的图像,同时还能保留空间信息。
遮蔽池化(Masked Pooling):在编码器顶部使用遮蔽池化,目的是在序列中将每个例子的token表示汇聚成单个向量表示。这一步骤是为了在保留每个图像独立信息的同时,实现高效的特征提取。
适用于不同任务:NaViT经过这样的设计,可以高效地迁移到标准任务,如图像和视频分类、物体检测和语义分割,同时在鲁棒性和公平性基准测试上取得了改进的结果。
应用于Sora
在Sora模型中,这种灵活的输入处理方式可以应用于视频数据的处理。特别是在生成视频内容时,Sora可以根据需求灵活调整视频的分辨率和宽高比,从而生成更加多样化和自然的视频内容。
适应不同分辨率:通过NaViT中提出的技术,Sora能够处理各种不同分辨率的视频输入,无需将视频统一调整到固定的大小。
保持原始宽高比:Sora可以处理并生成保持原始宽高比的视频,这在应用于不同类型的屏幕和媒体格式时尤为重要。
技术应用
Patch n’ Pack:将视频视为一系列的patches(像素块),并采用Patch n’ Pack技术,使得Sora能够在训练时处理原始分辨率的视频。
架构调整:对原始的Vision Transformer架构进行调整,以适应不同分辨率和宽高比的视频处理需求。
位置嵌入:重新设计位置嵌入以适应变化的图像尺寸和宽高比,这使得Sora在生成视频时能够更准确地考虑到空间信息。
模型效果与训练数据:模型的效果令人印象深刻,展现了OpenAI在这一领域的快速发展。关于具体的训练数据,虽然细节未公开,但似乎包含了大量的网络视频和游戏引擎数据,以及YouTube等平台的素材。
技术创新与挑战:Sora的技术基础包括transformer、图片字幕、扩散模型、视频patches和Dit等,这些技术之前已经具备了,OpenAI结合了更强大的算力和丰富的训练数据。这些因素共同推动了其在视频领域的创新应用。
视频数据标注技术:利用GPT将用户提示转换成详细字幕的方法使得Sora能够生成高质量的视频,精准地遵循用户的提示。这些思路不难,但是需要GPT这样强大的模型,才能生成高质量的文本标签。
Sora的效果:根据官方发布的视频,其效果确实令人惊艳。然而,尽管还未达到传奇的高度,Sora的这一进展无疑是一次重要的里程碑和质的飞跃。在细节处理和整体环境的协调性方面,Sora仍有很大的提升空间,期待其未来的更多精进和创新。
其他公司的跟进可能性:OpenAI在算力、资金和技术方面的先发优势,特别是利用GPT-4生成大量视频标注数据的能力,为其在视频生成领域的领先地位奠定了基础。这些优势构成了其他公司难以快速跨越的门槛。虽然现在很多公司和也在跟进,个人感觉这个跟进难度要比跟进GPT的难度要大些。
这篇博客的探索接近尾声,我们不禁感叹于Sora模型所展现出的技术深度和创新能力。通过这篇文章,我们试图解开Sora这一人工智能领域里程碑式成果的神秘面纱,深入其技术架构、训练流程以及核心模块的工作原理。
需要注意的是,尽管我竭尽全力提供了尽可能准确的分析,但关于Sora模型的一些技术细节尚未得到官方的完整披露。因此,我所提出的解读和推测仅基于目前可获得的信息以及我个人的理解,其中可能存在一定的偏差或误解。同时,由于工作繁忙,我在撰写博客时有些仓促,文中的引用、格式、描述、内容分级和逻辑等方面可能存在问题。我计划在未来有更多时间时,逐步对这些问题进行调整和修正。
我非常欢迎和鼓励业内专家、学者以及对人工智能充满好奇的朋友们提出质疑、指正错误或进行深入讨论。Sora作为一个不断发展和完善的模型,我们对它的理解和应用也将随着时间和技术的进步而不断进化。
参考文档:Video generation models as world simulators
相关解读
imporoved-deffusion: Improved Denoising Diffusion Probabilistic Models
Guided-diffusion: Diffusion Models Beat GANs on Image Synthesis
GLIDE: Towards Photorealistic Image Generation and Editing with Text-Guided Diffusion
DALL-E2: Hierarchical Text-Conditional Image Generation with CLIP Latents
CLIP:Learning Transferable Visual Models From Natural Language Supervision
ControlNet:Adding Conditional Control to Text-to-Image Diffusion Models
Stable diffusion: High-Resolution Image Synthesis with Latent Diffusion Models Robin
DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation
Sora的核心工作DiT: Scalable Diffusion Models with Transformers 全文解读
在本篇AI探索之旅的尾声,感谢每位朋友的陪伴,如果大家有疑问、见解,欢迎留言、讨论。您的点赞、关注是我持续分享的动力。APlayBoy,期待与您一起在AI的世界里不断成长!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。