当前位置:   article > 正文

LLM大语言模型(三):使用ChatGLM3-6B的函数调用功能前先学会Python的装饰器_chatglm3如何使用工具,调用天气函数

chatglm3如何使用工具,调用天气函数

目录

ChatGLM3-6B的函数调用模式示例

本地启动ChatGLM3-6B工具模式

如何在ChatGLM3-6B里新增一个自定义函数呢?

get_weather基于Python的装饰器实现

函数注解@register_tool

现在我们来自定义一个kuakuawo()函数


ChatGLM3-6B的函数调用模式示例

ChatGLM3-6B目前有三种使用模式:

  1. 对话模式
  2. 工具模式(也就是本文要介绍的函数调用)
  3. 代码解释器模式

函数调用模式示例:

函数调用模式介绍:

  • 首先进入Tool工具模式
  • 询问“北京今天的天气”
  • 大模型自动识别出,要调用get_weather工具(函数),且参数是“北京”
  • 大模型接着调用get_weather,入参=北京,获取到函数执行的结果
  • <|Observation|>展示的是函数的执行结果
  • 紧接着大模型根据上述内容,继续生成回答“根据APIxxxxxxxxxxxx”

本地启动ChatGLM3-6B工具模式

进入conda对应的环境

conda activate chatglm

进入composite_demo目录

cd composite_demo

修改为使用本地模型,参考LLM大语言模型(一):ChatGLM3-6B本地部署-CSDN博客

  1. # 修改client.py
  2. MODEL_PATH = os.environ.get('MODEL_PATH', '====你的本地模型的绝对路径====')

启动模型

  1. # 在composite_demo目录下
  2. streamlit run main.py

然后在页面选择Tool模式即可。

如何在ChatGLM3-6B里新增一个自定义函数呢?

首先我们看下get_weather函数是如何实现的。

在composite_demo目录下有个tool_registry.py文件,里面包含两个已经定义好的函数:

  • random_number_generator

  • get_weather

其中get_weather就是上文对话中用到的函数。

get_weather基于Python的装饰器实现

  1. @register_tool
  2. def get_weather(
  3. city_name: Annotated[str, 'The name of the city to be queried', True],
  4. ) -> str:
  5. """
  6. Get the current weather for `city_name`
  7. """
  8. if not isinstance(city_name, str):
  9. raise TypeError("City name must be a string")
  10. key_selection = {
  11. "current_condition": ["temp_C", "FeelsLikeC", "humidity", "weatherDesc", "observation_time"],
  12. }
  13. import requests
  14. try:
  15. resp = requests.get(f"https://wttr.in/{city_name}?format=j1")
  16. resp.raise_for_status()
  17. resp = resp.json()
  18. ret = {k: {_v: resp[k][0][_v] for _v in v} for k, v in key_selection.items()}
  19. except:
  20. import traceback
  21. ret = "Error encountered while fetching weather data!\n" + traceback.format_exc()
  22. return str(ret)

get_weather功能很简洁,最终是从

https://wttr.in/{city_name}?format=j1

获取天气信息(https://wttr.in/%E5%8C%97%E4%BA%AC?format=j1

函数注解@register_tool

register_tool的功能是将自定义的函数,转化为大模型需要的格式。 

  1. def register_tool(func: callable):
  2. tool_name = func.__name__
  3. tool_description = inspect.getdoc(func).strip()
  4. python_params = inspect.signature(func).parameters
  5. tool_params = []
  6. # 解析param的Annotation
  7. for name, param in python_params.items():
  8. annotation = param.annotation
  9. if annotation is inspect.Parameter.empty:
  10. raise TypeError(f"Parameter `{name}` missing type annotation")
  11. if get_origin(annotation) != Annotated:
  12. raise TypeError(f"Annotation type for `{name}` must be typing.Annotated")
  13. typ, (description, required) = annotation.__origin__, annotation.__metadata__
  14. typ: str = str(typ) if isinstance(typ, GenericAlias) else typ.__name__
  15. if not isinstance(description, str):
  16. raise TypeError(f"Description for `{name}` must be a string")
  17. if not isinstance(required, bool):
  18. raise TypeError(f"Required for `{name}` must be a bool")
  19. tool_params.append({
  20. "name": name,
  21. "description": description,
  22. "type": typ,
  23. "required": required
  24. })
  25. tool_def = {
  26. "name": tool_name,
  27. "description": tool_description,
  28. "params": tool_params
  29. }
  30. print("[registered tool] " + pformat(tool_def))
  31. _TOOL_HOOKS[tool_name] = func
  32. _TOOL_DESCRIPTIONS[tool_name] = tool_def
  33. return func

register_tool函数实现了装饰器,它将自定义的函数转换为tool_def dict,其中自动生成了name,description,params等信息

  1. {
  2. 'name': 'get_weather',
  3. 'description': 'Get the current weather for `city_name`',
  4. 'params': [
  5. {
  6. 'name': 'city_name',
  7. 'description': 'The name of the city to be queried',
  8. 'type': 'str',
  9. 'required': True
  10. }
  11. ]
  12. }

最终通过get_tools()将自定义的函数都暴露出去。

在上述demo中,其实是demo_tool.py里调用了get_tools()获取到所有的自定义函数。

  1. def get_tools() -> dict:
  2. return copy.deepcopy(_TOOL_DESCRIPTIONS)

现在我们来自定义一个kuakuawo()函数

  1. @register_tool
  2. def kuakuawo(
  3. name: Annotated[str, 'The name of the user', True],
  4. ) -> str:
  5. """
  6. Generates a awesome praise for user
  7. """
  8. return f"{name} 你真的太棒了"

看看效果

 参考:

  1. LLM大语言模型(一):ChatGLM3-6B本地部署-CSDN博客
  2. LLM大语言模型(二):Streamlit 无需前端经验也能画web页面-CSDN博客
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/216285
推荐阅读
相关标签
  

闽ICP备14008679号