赞
踩
使用Ollama,你可以在本地运行各种大型语言模型(LLM),并从中生成文本。Spring AI支持使用OllamaChatClient来进行Ollama文本生成。
首先,你需要在本地机器上运行Ollama。请参阅官方Ollama项目的README文件,了解如何在本地机器上运行模型的指南。
安装ollama时运行llama2
会下载一个4GB的docker镜像。
Spring AI的工件发布在Spring Milestone和Snapshot仓库中。请参阅仓库部分,将这些仓库添加到你的构建系统中。
为了帮助依赖管理,Spring AI提供了一个BOM(物料清单),以确保整个项目中使用一致版本的Spring AI。请参阅依赖管理部分,将Spring AI的BOM添加到你的构建系统中。
Spring AI为Ollama Chat客户端提供了Spring Boot自动配置。要启用它,请将以下依赖项添加到项目的Maven pom.xml文件中:
<dependency>
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。