当前位置:   article > 正文

LangFuse部署与实践

LangFuse部署与实践

一、定义

        LangFuse是一个强大的工具,可以帮助开发者和运维团队更好地理解和优化他们的LLM应用。通过提供实时的、深入的见解和可视化的跟踪功能,LangFuse使得识别和解决应用性能问题变得更加简单和高效。

二、原理

        LangFuse的原理主要是基于可观察性和分析技术来监控和优化低延迟消息(LLM)应用。它提供了一套完整的解决方案,通过收集、处理和分析LLM应用在运行过程中产生的各种数据,来生成实时的、深入的、可操作的见解。

具体来说,LangFuse可能采用了多种技术来实现其原理,包括但不限于以下几点:

  1. 数据收集:LangFuse首先会从LLM应用中收集各种关键指标和事件数据,如访问记录、响应时长、Token用量、计费等。这些数据可以反映应用的运行状态和性能表现。
  2. 数据处理:收集到的数据会经过一系列的处理过程,包括清洗、聚合、转换等,以便进行后续的分析和可视化。
  3. 实时分析:LangFuse会对处理后的数据进行实时分析,通过运用各种算法和模型,来识别出可能影响应用性能的问题和瓶颈。
  4. 可视化展示:分析结果会以直观的可视化形式展示出来,如图表、曲线、仪表盘等,这样开发者和运维团队就可以轻松地查看和理解应用的运行状态和性能表现。
  5. 告警与通知:当LangFuse检测到潜在的问题或异常时,它可以触发告警并通知相关人员,以便及时采取措施进行解决。

        总的来说,LangFuse的原理是通过综合运用可观察性和分析技术,来提供对LLM应用的全面监控和优化能力。这使得开发者和运维团队能够更加高效地管理和维护他们的应用,从而提升用户体验和业务效益。

三、下载部署

官方网站:Langfuse

项目地址:​​​​​​https://github.com/langfuse

  1. 通过官方云服务使用:1)注册: cloud.langfuse.com  2)创建 API Key

        2、本地部署

前提:

安装git:Git for Windows

安装docker:Docker Desktop: The #1 Containerization Tool for Developers | Docker

  1. # Clone repository
  2. git clone https://github.com/langfuse/langfuse.git
  3. cd langfuse
  4. # Run server and db
  5. docker compose up -d

注册localhost:3000,登录并创建project和API Keys

  1. # 在自己部署的系统中生成上述两个 KEY
  2. # 并在环境变量中指定服务地址
  3. LANGFUSE_SECRET_KEY="sk-lf-..."
  4. LANGFUSE_PUBLIC_KEY="pk-lf-.."
  5. LANGFUSE_HOST="http://localhost:3000"

        3、编写OpenAI客户端

  1. from datetime import datetime
  2. from langfuse.openai import openai
  3. from langfuse import Langfuse
  4. import os
  5. # 加载 .env 到环境变量
  6. from dotenv import load_dotenv, find_dotenv
  7. _ = load_dotenv(find_dotenv())
  8. trace = Langfuse().trace(
  9. name="myTest",
  10. user_id="pumpkin",
  11. release="v0.0.1"
  12. )
  13. completion = openai.chat.completions.create(
  14. name="hello-world",
  15. model="gpt-3.5-turbo",
  16. messages=[
  17. {"role": "user", "content": "你是谁?"}
  18. ],
  19. temperature=0,
  20. trace_id=trace.id,
  21. )
  22. print(completion.choices[0].message.content)

        4.使用Langchain

  1. from langfuse import Langfuse
  2. import os
  3. # 加载 .env 到环境变量
  4. from dotenv import load_dotenv, find_dotenv
  5. from langchain.prompts import (
  6. ChatPromptTemplate,
  7. HumanMessagePromptTemplate,
  8. )
  9. from langchain_core.output_parsers import StrOutputParser
  10. from langchain_openai import ChatOpenAI
  11. from langchain_core.runnables import RunnablePassthrough
  12. from langfuse.callback import CallbackHandler
  13. _ = load_dotenv(find_dotenv())
  14. handler = CallbackHandler(
  15. trace_name="TestDemo",
  16. user_id="pumpkin",
  17. )
  18. model = ChatOpenAI(model="gpt-3.5-turbo-0613")
  19. prompt = ChatPromptTemplate.from_messages([
  20. HumanMessagePromptTemplate.from_template("Say goodbye to {input}!")
  21. ])
  22. # 定义输出解析器
  23. parser = StrOutputParser()
  24. chain = (
  25. {"input": RunnablePassthrough()}
  26. | prompt
  27. | model
  28. | parser
  29. )
  30. result = chain.invoke(input="AGIClass", config={"callbacks": [handler]})
  31. print(result)

执行输出:

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小丑西瓜9/article/detail/373948
推荐阅读
相关标签
  

闽ICP备14008679号