当前位置:   article > 正文

MTEB - Embedding 模型排行榜_mteb榜单

mteb榜单


关于 MTEB

MTEB : Massive Text Embedding Benchmark


中文榜单(2024-05-03)

在这里插入图片描述


英文

在这里插入图片描述


MTEB 任务和数据集概览

多模态标记为紫色。
在这里插入图片描述


使用 MTEB Pythont 库

Installation

pip install mteb
  • 1

使用

from mteb import MTEB
from sentence_transformers import SentenceTransformer

# Define the sentence-transformers model name
model_name = "average_word_embeddings_komninos"
# or directly from huggingface:
# model_name = "sentence-transformers/all-MiniLM-L6-v2"

model = SentenceTransformer(model_name)
evaluation = MTEB(tasks=["Banking77Classification"])
results = evaluation.run(model, output_folder=f"results/{model_name}")
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

  • 使用命令行
mteb --available_tasks

mteb -m sentence-transformers/all-MiniLM-L6-v2 \
    -t Banking77Classification  \
    --verbosity 3

# if nothing is specified default to saving the results in the results/{model_name} folder
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • Using multiple GPUs in parallel can be done by just having a custom encode function that distributes the inputs to multiple GPUs like e.g. here or here.

伊织 2024-05-03(五)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/610191
推荐阅读
相关标签
  

闽ICP备14008679号