赞
踩
使用Ollama,你可以在本地运行各种大型语言模型(LLMs),并生成嵌入(embeddings)。Spring AI支持使用OllamaEmbeddingClient的Ollama文本嵌入。
嵌入是一个由浮点数组成的向量(列表)。两个向量之间的距离用来衡量它们的相关性。较小的距离表明高度相关,较大的距离表明低度相关。
首先,你需要在本地机器上运行Ollama。
请参阅官方Ollama项目的README文件,以开始在本地机器上运行模型。
注意,安装ollama run llama2将下载一个4GB的docker镜像。
Spring AI的工件发布在Spring Milestone和Snapshot仓库中。请参阅仓库部分,将这些仓库添加到你的构建系统中。
为了帮助依赖项管理,Spring AI提供了一个BOM(物料清单),以确保整个项目中使用一致的Spring AI版本。请参阅依赖项管理部分,将Spring AI BOM添加到你的构建系统中。
Spring AI为Azure Ollama Embedding Client提供了Spring Boot自动配置。要启用它,请将以下依赖项添加到你的Maven pom.xml文件中:
<de
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。