当前位置:   article > 正文

使用Ollama Embedding API和SQLite本地数据库将Memory添加到语义内核_ollamaembeddings

ollamaembeddings

详细介绍了使用可以在本地运行的开源模型实现语义内核 (SK) 的经验,无需订阅或 API 密钥。

作为 Python 的爱好者,我认识到它通过 LangChain 等工具和 Python 生态系统中的库在推进数据科学和大型语言模型 (LLM) 开发方面发挥的关键作用。

然而,部署基于 Python 的工具通常需要云环境,这对于像我这样的独立开发人员来说可能过于昂贵。我的目标是创建免费的开源应用程序,利用 LLM 而不依赖服务器后端,从而实现跨各种平台(包括 macOS、Windows 和 Web)的部署。

我发现了 .NET MAUI,它有助于在 .NET 生态系统中开发多平台应用程序。 .NET MAUI 包含几个强大的预构建包,例如语义内核 (SK)。值得注意的是,SK 仍在积极开发中,本系列中讨论的一些功能可能会不断发展。对于那些对完全本地的开源解决方案感兴趣的人,请继续关注我即将发布的帖子,以获取更多见解。

在这篇文章中,我将展示一个使用 Semantic Kernel 和 Ollama 以及本地 SQLite 数据库来管理嵌入和内存的示例。此示例使用来自 Github 用户 CodeBlaze 的 Nuget 包。该软件包赢得了语义内核黑客马拉松(LinkedIn)奖。

https://github.com/BLaZeKiLL/Codeblaze.SemanticKernel

  • 1
  • 2

在第一个示例中,我们将展示如何将 Semantic Kernel 连接到 Ollama 并使用 SQLite 作为本地内存数据库。

完整的代码可以在这里下载:

https://github.com/john-c-kane/sk-ollama-sqlite
  • 1

步骤1.安装Ollama</

本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/Gausst松鼠会/article/detail/679877
推荐阅读
相关标签
  

闽ICP备14008679号