当前位置:   article > 正文

LangChain v0.2 使用本地模型llama3进行流式输出_ollama 流式输出

ollama 流式输出

代码

  1. from langchain_community.llms import Ollama
  2. # 创建Ollama实例,指定模型名称
  3. ollama = Ollama(model="llama3")
  4. # 准备输入提示
  5. prompt = "Once upon a time, in a land far far away..."
  6. # 使用stream方法进行流式生成
  7. def stream_generation():
  8. for chunk in ollama.stream(input=prompt):
  9. print(chunk, end="", flush=True)
  10. # 调用函数执行流式生成
  11. stream_generation()

其它对于LangChain使用llama模型的方法请访问以下链接: 

LangChain对Ollama模型的使用文档

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/木道寻08/article/detail/963095
推荐阅读
相关标签
  

闽ICP备14008679号