当前位置:   article > 正文

使用Ollama和Go基于文本嵌入模型实现文本向量化

ollama 嵌入模型

基于RAG+大模型的应用已经成为当前AI应用领域的一个热门方向。RAG(Retrieval-Augmented Generation)将检索和生成两个步骤相结合,利用外部知识库来增强生成模型的能力(如下图来自网络)。

a2d4912e185c38d9b43df5101f2971ad.png

在RAG赋能的大模型应用中,关键的一步是将文本数据向量化后存储在向量数据库中(如上图的红框),以实现快速的相似度搜索,从而检索与输入查询相关的文本片段,再将检索到的文本输入给生成模型生成最终结果。

本文是我学习开发大模型应用的一篇小记,探讨的是如何使用Ollama和Go语言实现文本数据的向量化处理,这是开发基于RAG的大模型应用的前提和基础。

要进行文本向量化,我们首先要了解一下文本向量化的方法以及发展。

纵观文本向量化技术的发展历程,我们可以看到从早期的词袋模型(Bag-of-Words)、主题模型(Topic Models),到词嵌入(Word Embedding)、句嵌入(Sentence Embedding),再到当前基于预训练的文本嵌入模型(Pretrained Text Embedding Models),文本向量化的方法不断演进,语义表达能力也越来越强。

但传统的词袋模型忽略了词序和语义,主题模型又难以捕捉词间的细粒度关系,词嵌入模型(如Word2Vec、GloVe)虽然考虑了词的上下文,但无法很好地表征整个句子或文档的语义。近年来,随着预训练语言模型(如BERT、GPT等)的崛起,出现了一系列强大的文本嵌入模型,它们在大规模语料上进行预训练,能够生成高质量的句子/文档嵌入向量,广泛应用于各类NLP任务中。下图是抱抱脸(https://huggingface.co/)的最新文本嵌入模型的排行榜[1]

36f5e2ebf905adf7a4c50b0163984cbe.png

目前,基于大型预训练语言模型的文本嵌入已成为主流方法。这些模型在大规模无监督语料上预训练,学习到丰富的语义知识,生成的文本嵌入能较好地编码词语、短语和句子等多个层面的语义关系。Nomic AI[2]等组织发布了多种优秀的预训练文本嵌入模型,应用效果获得了较大提升。这种基于预训练的文本嵌入模型来实现文本数据向量化的方法也缓解了Go语言生态中文本向量化的相关库相对较少的尴尬,Gopher可以在预训练文本嵌入模型的帮助下将文本向量化。接下来,我们就来看看如何基于Ollama和Go基于文本嵌入模型实现文本向量化。

考虑到实验环境资源有限,以及Ollama对Text Embedding模型的支持[3],这里我选择了Nomic AI开源发布的nomic-embed-text v1.5模型[4],虽然在抱抱脸上它的排名并不十分靠前。

在《使用Ollama和OpenWebUI在CPU上玩转Meta Llama3-8B[5]》一文中,我已经粗略介绍过Ollama在本地运行大模型的基本步骤,如果你对Ollama的操作还不是很了解,可以先阅读一下那篇文章。

下面我们就用ollama下载nomic-embed-text:v1.5模型:

  1. $ollama pull nomic-embed-text:v1.5
  2. pulling manifest
  3. pulling manifest
  4. pulling 970aa74c0a90... 100% ▕██████████████████████████████████████████████████████████████████▏ 274 MB                         
  5. pulling c71d239df917... 100% ▕██████████████████████████████████████████████████████████████████▏  11 KB                         
  6. pulling ce4a164fc046... 100% ▕██████████████████████████████████████████████████████████████████▏   17 B                         
  7. pulling 31df23ea7daa... 100% ▕██████████████████████████████████████████████████████████████████▏  420 B                         
  8. verifying sha256 digest
  9. writing manifest
  10. removing any unused layers
  11. success

算上之前的Llama3模型,目前本地已经有了两个模型:

  1. $ollama list
  2. NAME                       ID              SIZE      MODIFIED      
  3. llama3:latest              71a106a91016    4.7 GB    2 weeks ago      
  4. nomic-embed-text:v1.5      0a109f422b47    274 MB    3 seconds ago

不过与llama3的对话模型不同,nomic-embed-text:v1.5是用于本文嵌入的模型,我们不能使用命令行来run该模型并通过命令行与其交互:

  1. $ollama run nomic-embed-text:v1.5
  2. Error: embedding models do not support chat

一旦模型下载成功,我们就可以通过Ollama的HTTP API来访问该模型了,下面是通过curl将一段文本向量化的命令:

  1. $curl http://localhost:11434/api/embeddings -d '{
  2.   "model""nomic-embed-text:v1.5",     
  3.   "prompt""The sky is blue because of Rayleigh scattering"
  4. }'
  5. {"embedding":[-1.246808409690857,0.10344144701957703,0.6935597658157349,-0.6157534718513489,0.4244955778121948,-0.7677388191223145,1.4136837720870972,0.012530215084552765,0.007208258379250765,-0.858286440372467,1.02878999710083,0.6512939929962158,1.0005667209625244,1.4231345653533936,0.30222395062446594,-0.4343869090080261,-1.358498215675354,-1.0671193599700928,0.3035725951194763,-1.5876567363739014,-0.9811925888061523,-0.31766557693481445,-0.32180508971214294,0.5726669430732727,-1.4187577962875366,-0.23533311486244202,-0.3387795686721802,0.02435961365699768,-0.9517765641212463,0.4120883047580719,-0.4619484841823578,-0.6658303737640381,0.010240706615149975,0.7687620520591736,0.9147310853004456,-0.18446297943592072,1.6336615085601807,1.006791353225708,-0.7928107976913452,0.3333768844604492,-0.9133707880973816,-0.8000166416168213,-0.41302260756492615,0.32945334911346436,0.44106146693229675,-1.3581880331039429,-0.2830675542354584,-0.49363842606544495,0.20744864642620087,0.039297714829444885,-0.6562637686729431,-0.24374787509441376,-0.22294744849205017,-0.664574921131134,0.5489196181297302,1.0000559091567993,0.45487216114997864,0.5257866382598877,0.25838619470596313,0.8648120760917664,0.32076674699783325,1.79911208152771,-0.23030932247638702,0.27912014722824097,0.6304138898849487,-1.1762936115264893,0.2685599625110626,-0.6646256446838379,0.332780659198761,0.1742674708366394,-0.27117523550987244,-1.1485087871551514,0.07291799038648605,0.7712352275848389,...,]}

注意:如果curl请求得到的应答是类似{"error":"error starting the external llama server: exec: "ollama_llama_server": executable file not found in $PATH "},可以尝试重启Ollama服务来解决:systemctl restart ollama。

Ollama没有提供sdk,我们就基于langchaingo[6]的ollama包访问ollama本地加载的nomic-embed-text:v1.5模型,实现文本的向量化。下面是示例的源码:

  1. // textembedding.go
  2. package main
  3. import (
  4.         "context"
  5.         "fmt"
  6.         "log"
  7.         "github.com/tmc/langchaingo/llms/ollama"
  8. )
  9. func main() {
  10.         llm, err := ollama.New(ollama.WithModel("nomic-embed-text:v1.5"))
  11.         if err != nil {
  12.                 log.Fatal(err)
  13.         }
  14.         ctx := context.Background()
  15.         inputText := "The sky is blue because of Rayleigh scattering"
  16.         result, err := llm.CreateEmbedding(ctx, []string{inputText})
  17.         if err != nil {
  18.                 log.Fatal(err)
  19.         }
  20.         fmt.Printf("%#v\n", result)
  21.         fmt.Printf("%d\n"len(result[0]))
  22. }

更新一下依赖:

  1. go mod tidy
  2. go: finding module for package github.com/tmc/langchaingo/llms/ollama
  3. go: toolchain upgrade needed to resolve github.com/tmc/langchaingo/llms/ollama
  4. go: github.com/tmc/langchaingo@v0.1.9 requires go >= 1.22.0; switching to go1.22.3
  5. go: downloading go1.22.3 (linux/amd64)
  6. go: finding module for package github.com/tmc/langchaingo/llms/ollama
  7. go: found github.com/tmc/langchaingo/llms/ollama in github.com/tmc/langchaingo v0.1.9
  8. go: downloading github.com/stretchr/testify v1.9.0
  9. go: downloading github.com/pkoukk/tiktoken-go v0.1.6
  10. go: downloading gopkg.in/yaml.v3 v3.0.1
  11. go: downloading github.com/davecgh/go-spew v1.1.1
  12. go: downloading github.com/pmezard/go-difflib v1.0.0
  13. go: downloading github.com/google/uuid v1.6.0
  14. go: downloading github.com/dlclark/regexp2 v1.10.0

我本地的Go是1.21.4版本,但langchaingo需要1.22.0版本及以上,这里考虑向前兼容性[7],go下载了go1.22.3。

接下来运行一下上述程序:

  1. $go run textembedding.go
  2. [][]float32{[]float32{-1.24680840.103441450.69355977-0.61575350.42449558-0.76773881.41368380.0125302150.0072082584-0.858286441.028790.6512941.00056671.42313460.30222395-0.4343869-1.3584982-1.06711940.3035726-1.5876567-0.9811926-0.31766558-0.32180510.57266694-1.4187578-0.23533311-0.338779570.024359614-0.951776560.4120883-0.46194848-0.66583040.0102407070.768762050.9147311-0.184462981.63366151.0067914-0.79281080.33337688-0.9133708-0.80001664-0.41302260.329453350.44106147-1.358188-0.28306755-0.493638430.207448650.039297715-0.65626377-0.24374788-0.22294745-0.66457490.54891961.00005590.454872160.525786640.25838620.86481210.320766751.7991121-0.230309320.279120150.6304139-1.17629360.26855996-0.664625640.332780660.17426747-0.27117524-1.14850880.072917990.7712352-1.2570909-0.62304420.02963586-0.4936177-0.0142956510.5730515, ... ,  -0.5260737-0.448088080.9352375}}
  3. 768

我们看到输入的文本成功地被向量化了,我们输出了这个向量的维度:768。

注:文本向量维度的常见的值有200、300、768、1536等。

我们看到,基于Ollama加载的预训练文本嵌入模型,我们可以在Go语言中实现高效优质的文本向量化。将文本数据映射到语义向量空间,为基于RAG的知识库应用打下坚实的基础。有了向量后,我们便可以将其存储在向量数据库中备用,在后续的文章中,我会探讨向量数据库写入与检索的实现方法。


Gopher部落知识星球[8]在2024年将继续致力于打造一个高品质的Go语言学习和交流平台。我们将继续提供优质的Go技术文章首发和阅读体验。同时,我们也会加强代码质量和最佳实践的分享,包括如何编写简洁、可读、可测试的Go代码。此外,我们还会加强星友之间的交流和互动。欢迎大家踊跃提问,分享心得,讨论技术。我会在第一时间进行解答和交流。我衷心希望Gopher部落可以成为大家学习、进步、交流的港湾。让我相聚在Gopher部落,享受coding的快乐! 欢迎大家踊跃加入!

7b945fa7f45bb955fb27ab855d7d15bd.jpeg5d8728c61b631604b16371b8746c3d22.png

15c5eff575317b1773616eb1398e012b.png317b18c8f0ae30a7d77bd51e68f0ad05.jpeg

著名云主机服务厂商DigitalOcean发布最新的主机计划,入门级Droplet配置升级为:1 core CPU、1G内存、25G高速SSD,价格5$/月。有使用DigitalOcean需求的朋友,可以打开这个链接地址[9]:https://m.do.co/c/bff6eed92687 开启你的DO主机之路。

Gopher Daily(Gopher每日新闻) - https://gopherdaily.tonybai.com

我的联系方式:

  • 微博(暂不可用):https://weibo.com/bigwhite20xx

  • 微博2:https://weibo.com/u/6484441286

  • 博客:tonybai.com

  • github: https://github.com/bigwhite

  • Gopher Daily归档 - https://github.com/bigwhite/gopherdaily

dc3694a09a4a1e2955d33a97bf9d4867.jpeg

商务合作方式:撰稿、出书、培训、在线课程、合伙创业、咨询、广告合作。

参考资料

[1] 

文本嵌入模型的排行榜: https://huggingface.co/spaces/mteb/leaderboard

[2] 

Nomic AI: https://www.nomic.ai/

[3] 

Ollama对Text Embedding模型的支持: https://ollama.com/search?q=embed&p=1

[4] 

nomic-embed-text v1.5模型: https://blog.nomic.ai/posts/nomic-embed-matryoshka

[5] 

使用Ollama和OpenWebUI在CPU上玩转Meta Llama3-8B: https://tonybai.com/2024/04/23/playing-with-meta-llama3-8b-on-cpu-using-ollama-and-openwebui/

[6] 

langchaingo: https://github.com/tmc/langchaingo

[7] 

向前兼容性: https://tonybai.com/2023/09/10/understand-go-forward-compatibility-and-toolchain-rule/

[8] 

Gopher部落知识星球: https://public.zsxq.com/groups/51284458844544

[9] 

链接地址: https://m.do.co/c/bff6eed92687

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/588558
推荐阅读
相关标签
  

闽ICP备14008679号