赞
踩
最近我注意到Ollama提供了Python和JavaScript库的Libraries。
我通过GitHub搜寻了一些Web项目,并尝试了其中一些项目。以下是我体验过的几个项目:
客户端中,我发现 chatbox 是更新了支持ollama的且他还是多端支持的。
对于nextjs-ollama-llm-ui
这个项目,我进行了测试,发现它支持图片上传、模型下载和模型切换等功能,整体体验还不错。
在开发环境中,我还发现了一个名为Continue的插件,它是VS Code和JetBrains的开源插件,使用LLM代码变得非常简单。
对于试用模型,一旦安装好上述插件,您会发现它直接提供了几个试用模型。
以下是Continue支持的模型:
您可以在config.json
中进行配置,这个配置文件用于设置本地模型。
例如加入本地的codeLlama:
{
"models": [
{
"title": "codellama",
"model": "codellama",
"completionOptions": {},
"apiBase": "http://localhost:11434",
"provider": "ollama"
}
]
}
同时,我还发现了一个通过JavaScript编写的演示Demo,支持远程访问。您可以在ytb-开发小demo中找到这个有趣的演示。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。