赞
踩
博主是AI新手,如有不对还请评论区指教~
这里介绍mac的部署方式,win也可以实现。
本案例使用到:ollama + nextjs + langchain.js + milvus 来实现知识库问答和聊天。
ollama:本地运行模型服务
nextjs:前端框架项目
langchain.js:调用模型服务并对话
milvus:向量数据库
开源代码:GitHub - huangj17/gemma-nextjs: 使用nextjs本地化部署AI大模型gemma
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。