赞
踩
多模态对比语言图像预训练CLIP:打破语言与视觉的界限,具备零样本能力。
一种基于多模态(图像、文本)对比训练的神经网络。它可以在给定图像的情况下,使用自然语言来预测最相关的文本片段,而无需为特定任务进行优化。CLIP的设计类似于GPT-2和GPT-3,具备出色的零射击能力,可以应用于多种多模态任务。
多模态对比语言图像预训练(Contrastive Language-Image Pre-training,简称CLIP)是由OpenAI提出的一种技术,用于将自然语言任务和图像理解任务进行联合预训练。CLIP的目标是从大规模的无标签图像和文本数据中学习出一个通用的特征表示,能够同时适用于文本和图像。以下是CLIP技术的原理和使用场景的介绍:
技术原理:
使用场景:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。