当前位置:   article > 正文

第五章 Spring AI 集成Ollama,与qwen进行交流。看这一篇就够了_spring ai + ollama + qwen 示例项目-流式、非流式输出

spring ai + ollama + qwen 示例项目-流式、非流式输出

Python 是进入人工智能领域(认为是机器学习或生成人工智能AIGC)的主要武器,Java 和 Spring 仍引领着大多数开发社区, Java 开发人员如何与 LLM大模型 一起工作?这就是 Spring AI 弥补差距的地方。

Spring AI在 Spring 应用程序和可以在本地运行的 LLM 之间创建集成,这为所有 Java 开发人员提供了开发人工智能应用程序的能力。

在本文中,我们将了解如何使用 Ollama 在本地运行大模型,我们将考虑四个方面。

  1. 本地安装并运行 Ollama 和 qwen
  2. 创建SpringAI项目并详细查看项目配置。
  3. 访问本地嵌入。
  4. 访问本地聊天模型。

直接下载CSDN的资源

https://download.csdn.net/download/liujianming90/89107563

查看前面安装ollama

运行qwen:1.8b

新建项目,JDK选17,千万要用IDEA高一点的 2023 2024的。

  1. 添加依赖: 首先,确保你的pom.xml文件中包含了Spring AI和Ollama的相关依赖。
    <?xml version="1.0" encoding="
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/568491
推荐阅读
相关标签
  

闽ICP备14008679号