当前位置:   article > 正文

Anything本地知识库问答系统:基于检索增强生成式应用(RAG)两阶段检索、支持海量数据、跨语种问答_anything rag

anything rag

QAnything本地知识库问答系统:基于检索增强生成式应用(RAG)两阶段检索、支持海量数据、跨语种问答

QAnything (Question and Answer based on Anything) 是致力于支持任意格式文件或数据库的本地知识库问答系统,可断网安装使用。

您的任何格式的本地文件都可以往里扔,即可获得准确、快速、靠谱的问答体验。

目前已支持格式: PDFWord(doc/docx)PPTMarkdownEmlTXT图片(jpg,png等)网页链接,更多格式,敬请期待…

  • 特点

    • 数据安全,支持全程拔网线安装使用。
    • 支持跨语种问答,中英文问答随意切换,无所谓文件是什么语种。
    • 支持海量数据问答,两阶段向量排序,解决了大规模数据检索退化的问题,数据越多,效果越好。
    • 高性能生产级系统,可直接部署企业应用。
    • 易用性,无需繁琐的配置,一键安装部署,拿来就用。
    • 支持选择多知识库问答。
  • 架构

1.两阶段检索优势

知识库数据量大的场景下两阶段优势非常明显,如果只用一阶段embedding检索,随着数据量增大会出现检索退化的问题,如下图中绿线所示,二阶段rerank重排后能实现准确率稳定增长,即数据越多,效果越好

BCEmbedding是由网易有道开发的中英双语和跨语种语义表征算法模型库,其中包含 EmbeddingModel和 RerankerModel两类基础模型。EmbeddingModel专门用于生成语义向量,在语义搜索和问答中起着关键作用,而 RerankerModel擅长优化语义搜索结果和语义相关顺序精排。

BCEmbedding作为有道的检索增强生成式应用(RAG)的基石,特别是在QAnything [github]中发挥着重要作用。QAnything作为一个网易有道开源项目,在有道许多产品中有很好的应用实践,比如有道速读和有道翻译。

QAnything使用的检索组件BCEmbedding有非常强悍的双语和跨语种能力,能消除语义检索里面的中英语言之间的差异,
从而实现:

  • 双语和跨语种优势
    • 现有的单个语义表征模型在双语和跨语种场景中常常表现不佳,特别是在中文、英文及其跨语种任务中。BCEmbedding充分利用有道翻译引擎的优势,实现只需一个模型就可以在单语、双语和跨语种场景中表现出卓越的性能。

EmbeddingModel支持中文和英文(之后会支持更多语种);RerankerModel支持中文,英文,日文和韩文。

1.1 一阶段检索(embedding)

模型名称RetrievalSTSPairClassificationClassificationRerankingClustering平均
bge-base-en-v1.537.1455.0675.4559.7343.0537.7447.20
bge-base-zh-v1.547.6063.7277.4063.3854.8532.5653.60
bge-large-en-v1.537.1554.0975.0059.2442.6837.3246.82
bge-large-zh-v1.547.5464.7379.1464.1955.8833.2654.21
jina-embeddings-v2-base-en31.5854.2874.8458.4241.1634.6744.29
m3e-base46.2963.9371.8464.0852.3837.8453.54
m3e-large34.8559.7467.6960.0748.9931.6246.78
bce-embedding-base_v157.6065.7374.9669.0057.2938.9559.43

1.2二阶段检索(rerank)

模型名称Reranking平均
bge-reranker-base57.7857.78
bge-reranker-large59.6959.69
bce-reranker-base_v160.0660.06
  • Reranker Evaluation Results
    • Language: en

      • Task Type: Reranking

        ModelAskUbuntuDupQuestionsMindSmallRerankingSciDocsRRStackOverflowDupQuestionsAVG
        bge-reranker-base54.7028.4867.0937.5546.96
        bge-reranker-large58.7328.8471.3039.0449.48
        bce-reranker-base_v156.5430.7375.7942.8851.48
      • Summary on en

        ModelRerankingAVG
        bge-reranker-base46.9646.96
        bge-reranker-large49.4849.48
        bce-reranker-base_v151.4851.48
    • Language: zh

      • Task Type: Reranking

        ModelT2RerankingMMarcoRerankingCMedQAv1CMedQAv2AVG
        bge-reranker-base67.2835.4681.2784.1067.03
        bge-reranker-large67.6037.6482.1484.1867.89
        bce-reranker-base_v170.2534.1379.6481.3166.33
      • Summary on zh

        ModelRerankingAVG
        bge-reranker-base67.0367.03
        bge-reranker-large67.8967.89
        bce-reranker-base_v166.3366.33
    • Language: en-zh

      • Task Type: Reranking

        ModelT2RerankingEn2ZhMMarcoRerankingEn2ZhAVG
        bge-reranker-base60.4564.4162.43
        bge-reranker-large61.6467.1764.41
        bce-reranker-base_v163.6367.9265.78
      • Summary on en-zh

        ModelRerankingAVG
        bge-reranker-base62.4362.43
        bge-reranker-large64.4164.41
        bce-reranker-base_v165.7865.78
    • Language: zh-en

      • Task Type: Reranking

        ModelT2RerankingZh2EnMMarcoRerankingZh2EnAVG
        bge-reranker-base63.9463.7963.87
        bge-reranker-large64.1367.8966.01
        bce-reranker-base_v165.3867.2366.31
      • Summary on zh-en

        ModelRerankingAVG
        bge-reranker-base63.8763.87
        bge-reranker-large66.0166.01
        bce-reranker-base_v166.3166.31
      • Summary on all langs: ['en', 'zh', 'en-zh', 'zh-en']

        ModelReranking (12)AVG (12)
        bge-reranker-base59.0459.04
        bge-reranker-large60.8660.86
        bce-reranker-base_v161.2961.29

1.3 基于LlamaIndex的RAG评测(embedding and rerank)

NOTE:

  • 在WithoutReranker列中,我们的bce-embedding-base_v1模型优于所有其他embedding模型。
  • 在固定embedding模型的情况下,我们的bce-reranker-base_v1模型达到了最佳表现。
  • bce-embedding-base_v1和bce-reranker-base_v1的组合是SOTA。
  • 如果想单独使用embedding和rerank请参阅:BCEmbedding

2.LLM

开源版本QAnything的大模型基于通义千问,并在大量专业问答数据集上进行微调;在千问的基础上大大加强了问答的能力。
如果需要商用请遵循千问的license,具体请参阅:通义千问

推荐阅读
相关标签