赞
踩
最近在工作有用到关于BGE(From C-Pack),下面的内容仅作笔记。
针对中文文本表征,做出了三大贡献,覆盖数据,模型,benchmark三大方面。
C-MTEB:中文文本表征benchmark,包含6个任务,35个数据集
C-MTP:大规模文本表征训练数据集
C-TEM:不同规模(small,base,large)的中文文本表征模型,超出SOTA 10%左右性能
C-MTEB的35个数据集全部来源于public,覆盖文本召回(NDCG@10),排序(MAP),分类(average precision),相似度匹配(Spearman’s correlation),聚类(average precision),文本对分类(average precision)共六个方向,最终模型表现由6大任务指标取平均值得到。
C-MTP主要由unlabeled和labeled两部分组成,值得注意的是unlabeled的pair主要由(title,passage)组成,并且为了保证title和passage之间的相关性,采用了第三方模型text2VecChinese来对pair相关性进行打分,通过删除相关性低于0.43的方式删除部分噪声数据
C-TEM是类bert架构,以最后一层隐藏层下[CLS] token的作为文本的embedding。
训练过程主要分为三个阶段
RetroMAE:一种全尺寸编码器和单层解码器组合的面向检索的预训练语言模型,核心在使用encoder-decoder的结构,以及非对称掩码率(encoder的中等掩码率和decoder的高演码率)来增强encoder能力。
中文表现不错,如果有中文文本任务需求的同学不妨一试
huggingface地址:https://huggingface.co/BAAI/bge-reranker-base
github地址:GitHub - FlagOpen/FlagEmbedding: Open-source Embedding Models and Ranking Models
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。