赞
踩
Ollama是一个开源的大型语言模型服务工具,它允许用户在本地机器上构建和运行语言模型,提供了一个简单易用的API来创建、运行和管理模型,同时还提供了丰富的预构建模型库,这些模型可以轻松地应用在多种应用场景中。Ollama支持多种操作系统,包括macOS、Windows、Linux,并提供Docker镜像,方便用户在不同环境中部署使用 。
Ollama的特点包括轻量级和可扩展性,它允许用户通过命令行界面(CLI)或REST API与语言模型进行交互。用户可以下载并运行预训练的模型,如Llama 2、Mistral、Dolphin Phi等,这些模型具有不同的参数量和大小,适用于不同的使用场景和需求 。
此外,Ollama还支持模型的自定义,用户可以根据自己的需求调整模型参数,或者导入自有的模型进行使用。例如,用户可以通过创建Modelfile来定制模型,Modelfile是一个配置文件,用于定义和管理Ollama平台上的模型,通过模型文件可以创建新模型或修改现有模型,以适应特定的应用场景 。
官网:https://ollama.com/
Github:https://github.com/ollama/ollama
进入官网之后,点击download下载对应系统版本进行安装。
模型使用llama3
官网:https://ollama.com/library/llama3
ollama下载完成之后,打开命令行,运行命令ollama run llama3
,自动下载模型,在命令行可进行简单的聊天
llama3有8B和70B,上面的命令运行之后,默认选择的是8B
python客户端:https://github.com/ollama/ollama-python
import ollama
response = ollama.chat(model='llama3', messages=[
{
'role': 'user',
'content': 'Why is the sky blue?',
},
])
print(response['message']['content'])
流式响应:
import ollama
stream = ollama.chat(
model='llama3',
messages=[{'role': 'user', 'content': '用中文讲一个笑话'}],
stream=True,
)
for chunk in stream:
print(chunk['message']['content'], end='', flush=True)
Ollama的Github中推荐的UI项目:
这里我们使用hollama:https://github.com/fmaclen/hollama
先克隆hollama
的源代码,进入目录之后运行npm i --registry=https://registry.npmmirror.com
安装依赖,然后运行npm run dev
启动项目
进入setting
中设置Server
和Model
然后再sessions
里面可以进行聊天
官网:https://docs.spring.io/spring-ai/reference/index.html
ollama文档:https://docs.spring.io/spring-ai/reference/api/chat/ollama-chat.html
1、通过https://start.spring.io/
创建项目,并引入Ollama AI
pom.xml如下:
<?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd"> <modelVersion>4.0.0</modelVersion> <parent> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-parent</artifactId> <version>3.3.1</version> <relativePath/> <!-- lookup parent from repository --> </parent> <groupId>pers.fengxu</groupId> <artifactId>springaidemo</artifactId> <version>0.0.1-SNAPSHOT</version> <name>springaidemo</name> <description>Demo project for Spring Boot</description> <url/> <licenses> <license/> </licenses> <developers> <developer/> </developers> <scm> <connection/> <developerConnection/> <tag/> <url/> </scm> <properties> <java.version>22</java.version> <spring-ai.version>1.0.0-M1</spring-ai.version> </properties> <dependencies> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> </dependency> <dependency> <groupId>org.springframework.ai</groupId> <artifactId>spring-ai-ollama-spring-boot-starter</artifactId> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-test</artifactId> <scope>test</scope> </dependency> </dependencies> <dependencyManagement> <dependencies> <dependency> <groupId>org.springframework.ai</groupId> <artifactId>spring-ai-bom</artifactId> <version>${spring-ai.version}</version> <type>pom</type> <scope>import</scope> </dependency> </dependencies> </dependencyManagement> <build> <plugins> <plugin> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-maven-plugin</artifactId> </plugin> </plugins> </build> <repositories> <repository> <id>spring-milestones</id> <name>Spring Milestones</name> <url>https://repo.spring.io/milestone</url> <snapshots> <enabled>false</enabled> </snapshots> </repository> </repositories> </project>
配置文件application.properties
spring.application.name=springaidemo
spring.ai.ollama.base-url=http://localhost:11434
spring.ai.ollama.chat.options.model=llama3
新建controller
package pers.fengxu.springaidemo.controller; import org.springframework.ai.chat.messages.UserMessage; import org.springframework.ai.chat.model.ChatResponse; import org.springframework.ai.chat.prompt.Prompt; import org.springframework.ai.ollama.OllamaChatModel; import org.springframework.ai.ollama.api.OllamaApi; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.web.bind.annotation.GetMapping; import org.springframework.web.bind.annotation.RequestParam; import org.springframework.web.bind.annotation.RestController; import reactor.core.publisher.Flux; import java.util.Map; @RestController public class ChatController { private final OllamaChatModel chatModel; @Autowired public ChatController(OllamaChatModel chatModel) { this.chatModel = chatModel; } @GetMapping("/ai/generate") public Map generate(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) { return Map.of("generation", chatModel.call(message)); } @GetMapping("/ai/generateStream") public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) { Prompt prompt = new Prompt(new UserMessage(message)); return chatModel.stream(prompt); } }
新建启动类
package pers.fengxu.springaidemo;
import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
@SpringBootApplication
public class SpringaidemoApplication {
public static void main(String[] args) {
SpringApplication.run(SpringaidemoApplication.class, args);
}
}
启动项目之后,访问:http://localhost:8080/ai/generate
AnythingLLM 是一款强大的人工智能商业智能工具,用于商业智能和文档处理,具有以下主要特点:
官网:https://useanything.com/download
下载之后,双击安装,之后打开进行初始设置:
选择Ollama
继续
设置工作区名称:
可以在设置里面进行语言和其他相关属性的配置:
现在先问ai一个它可能不知道的问题,例如“高启强是谁?”,它的回答显然有些驴头不对马嘴。
点击左边的上传按钮
左边支持网址和文本
所以可以直接讲百度百科的链接提供给ai学习:
地址为:https://baike.baidu.com/item/%E9%AB%98%E5%90%AF%E5%BC%BA/59990049
解析网页完成之后,将该知识库移动至当前空间
点击保存
然后再次输入问题,便可以得到我们想要的答案。
备注:如果电脑性能不够可以选择阿里的qwen2:0.5b
模型,只需要几百兆,运行ollama run qwen2:0.5b
即可安装运行,并且对中文的支持更好,对应网址:https://ollama.com/library/qwen2:0.5b
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。