当前位置:   article > 正文

NLP | SentenceTransformer将句子进行编码并计算句子语义相似度

sentencetransformer

环境设置:

  • SentenceTransformer
  • transformers

SentenceTransformers Documentation — Sentence-Transformers documentation (sbert.net)

Sentence Transformer是一个Python框架,用于句子、文本和图像嵌入Embedding。

这个框架计算超过100种语言的句子或文本嵌入。然后,这些嵌入可以进行比较,例如与余弦相似度进行比较,以找到具有相似含义的句子,这对于语义文本相似、语义搜索或释义挖掘非常有用。
该框架基于PyTorch和Transformer,并提供了大量预训练的模型集合,用于各种任务,此外,很容易微调自己的模型。

如果没有的话,利用pip安装

  1. pip install -U sentence-transformers
  2. pip install -U transformers

 如果是conda的虚拟环境时,使用 conda 安装

可以使用以下命令安装句子转换器conda

conda install -c conda-forge sentence-transformers

关键知识点:余弦相似度计算

余弦相似度是判断两个向量相似度常用的算法,是一个向量空间中两个向量夹角间的余弦值作为衡量两个个体之间差异的大小,余弦值接近1,夹角趋于0,表明两个向量越相似,余弦值接近于0,夹角趋于90度,表明两个向量越不相似。
总之,相似度越小,距离越大。相似度越大,距离越小。

数学计算公式:

 a,b,c 是三个边的长度

在NLP计算中,常用来计算词语的相似度,因为词,或者文本表示成分布式向量之后,可以很方便的计算他们的余弦相似度来评估他们的语义相似性。可以表示为

简单代码实现

  1. # 在scipy库中计算
  2. from scipy.spatial.distance import cosine
  3. import numpy as np
  4. a=np.array([1,2,3])
  5. b=np.array([2,2,3])
  6. print(1-cosine(a,b))#cosin() 中参数可以直接是 list
  7. # 在sklearn库中计算矩阵
  8. import numpy as np
  9. from sklearn.metrics.pairwise import cosine_similarity
  10. a=np.array([1,2,3]).reshape(1,3)#[[1 2 3]]
  11. b=np.array([2,2,3]).reshape(1,3)#[[2 2 3]]
  12. c=cosine_similarity(a,b)
  13. print('相似度结果为 : ',c)
  14. a=np.arange(15).reshape(3,5)
  15. b=np.arange(20).reshape(4,5)
  16. print(a)
  17. print(b)
  18. c=cosine_similarity(a,b) #第一行的值是a中的每第一个行向量与b中每一个行向量之间的余弦相似度
  19. d=cosine_similarity(a)# a 中的行向量之间的两两余弦相似度
  20. print('c : ',c,'d : ',d)

 结果如下

 

 

句子向量化表示

  1. from sentence_transformers import SentenceTransformer
  2. # Download model
  3. model = SentenceTransformer('paraphrase-MiniLM-L6-v2')
  4. # The sentences we'd like to encode
  5. sentences = ['Python is an interpreted high-level general-purpose programming language.',
  6. 'Python is dynamically-typed and garbage-collected.',
  7. 'The quick brown fox jumps over the lazy dog.']
  8. # Get embeddings of sentences
  9. embeddings = model.encode(sentences)
  10. # Print the embeddings
  11. for sentence, embedding in zip(sentences, embeddings):
  12. print("Sentence:", sentence)
  13. print("Embedding:", embedding)
  14. print("")

对句子进行编码,结果如下

提供各种预训练模型。使用这些模型很容易:

其中模型可更改为

model = SentenceTransformer('all-MiniLM-L6-v2')

 所有模型都托管在HuggingFace模型中心

也可更改为以下预训练模型

计算语义相似度

  1. from sentence_transformers import SentenceTransformer, util
  2. model = SentenceTransformer('all-MiniLM-L6-v2')
  3. # 文本列表
  4. sentences = ['The cat sits outside',
  5. 'A man is playing guitar',
  6. 'I love pasta',
  7. 'The new movie is awesome',
  8. 'The cat plays in the garden']
  9. # 计算embeddings
  10. embeddings = model.encode(sentences, convert_to_tensor=True)
  11. # 计算不同文本之间的相似度
  12. cosine_scores = util.cos_sim(embeddings, embeddings)
  13. # 保存结果
  14. pairs = []
  15. for i in range(len(cosine_scores)-1):
  16. for j in range(i+1, len(cosine_scores)):
  17. pairs.append({'index': [i, j], 'score': cosine_scores[i][j]})
  18. # 按照相似度分数进行排序打印
  19. pairs = sorted(pairs, key=lambda x: x['score'], reverse=True)
  20. for pair in pairs:
  21. i, j = pair['index']
  22. print("{:<30} \t\t {:<30} \t\t Score: {:.4f}".format(sentences[i], sentences[j], pair['score']))

 结果如下

cos相似度计算

  1. from sentence_transformers import SentenceTransformer, util
  2. model = SentenceTransformer('all-MiniLM-L6-v2')
  3. #Sentences are encoded by calling model.encode()
  4. emb1 = model.encode("This is a red cat with a hat.")
  5. emb2 = model.encode("Have you seen my red cat?")
  6. cos_sim = util.cos_sim(emb1, emb2)
  7. print("Cosine-Similarity:", cos_sim)

 结果

 

详情请参考:

Pretrained Models — Sentence-Transformers documentation (sbert.net)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/367591?site
推荐阅读
相关标签
  

闽ICP备14008679号