赞
踩
在 API 调用中,您可以描述函数,并让模型智能地选择输出包含调用一个或多个函数的参数的 JSON 对象。Chat Completions API不会调用该函数;相反,模型会生成 JSON,您可以使用它来调用代码中的函数。
本指南重点介绍使用聊天完成 API 进行函数调用,有关助手 API 中函数调用的详细信息,请参阅助手工具页面Assistants Tools page。
顺序如下:
使用用户查询和函数参数 functions parameter.中定义的一组函数来调用模型。
模型可以选择调用一个或多个函数;如果是这样,内容将是一个符合您的自定义架构的字符串化 JSON 对象(注意:模型可能会产生幻觉参数)。
在代码中将字符串解析为 JSON,并使用提供的参数(如果存在)调用函数。
通过将函数响应作为新消息附加来再次调用模型,并让模型将结果汇总返回给用户。
并非所有模型版本都使用函数调用数据进行训练。以下模型支持函数调用: gpt-4-turbo
、 gpt-4-turbo-2024-04-09
、 gpt-4-turbo-preview
、 gpt-4-0125-preview
、 gpt-4-1106-preview
、 < b5>、 gpt-4-0613
、 gpt-3.5-turbo
、 gpt-3.5-turbo-0125
、 gpt-3.5-turbo-1106
和 gpt-3.5-turbo-0613
此外,以下模型支持并行函数调用: gpt-4-turbo
、 gpt-4-turbo-2024-04-09
、 gpt-4-turbo-preview
、 gpt-4-0125-preview
、 gpt-4-1106-preview
和 gpt-3.5-turbo-1106
。
tool_choice
的默认行为是 tool_choice: "auto"
。这让模型决定是否调用函数,如果调用,则调用哪些函数。
我们提供三种方法来根据您的用例自定义默认行为:
要强制模型始终调用一个或多个函数,可以设置 tool_choice: “required”。然后模型将选择要调用的函数。
要强制模型仅调用一个特定函数,可以设置 tool_choice: {“type”: “function”, “function”: {“name”: “my_function”}}。
要禁用函数调用并强制模型仅生成面向用户的消息,您可以设置 tool_choice: “none”。
并行函数调用是模型同时执行多个函数调用的能力,允许并行解决这些函数调用的效果和结果。如果函数需要很长时间,这尤其有用,并且可以减少 API 的往返次数。例如,模型可能会调用函数来同时获取 3 个不同位置的天气,这将导致在 tool_calls 数组中产生一条包含 3 个函数调用的消息,每个函数调用都有一个 id。要响应这些函数调用,请向对话中添加 3 条新消息,每条消息都包含一个函数调用的结果,并使用 tool_call_id 引用 tool_calls 中的 id。
在此示例中,我们定义了一个函数 get_current_weather
。模型多次调用该函数,并将函数响应发送回模型后,我们让它决定下一步。它回复了一条面向用户的消息,告诉用户旧金山、东京和巴黎的气温。根据查询,它可能会选择再次调用函数。
from openai import OpenAI import json client = OpenAI() # Example dummy function hard coded to return the same weather # In production, this could be your backend API or an external API def get_current_weather(location, unit="fahrenheit"): """Get the current weather in a given location""" if "tokyo" in location.lower(): return json.dumps({"location": "Tokyo", "temperature": "10", "unit": unit}) elif "san francisco" in location.lower(): return json.dumps({"location": "San Francisco", "temperature": "72", "unit": unit}) elif "paris" in location.lower(): return json.dumps({"location": "Paris", "temperature": "22", "unit": unit}) else: return json.dumps({"location": location, "temperature": "unknown"}) def run_conversation(): # Step 1: send the conversation and available functions to the model messages = [{"role": "user", "content": "What's the weather like in San Francisco, Tokyo, and Paris?"}] tools = [ { "type": "function", "function": { "name": "get_current_weather", "description": "Get the current weather in a given location", "parameters": { "type": "object", "properties": { "location": { "type": "string", "description": "The city and state, e.g. San Francisco, CA", }, "unit": {"type": "string", "enum": ["celsius", "fahrenheit"]}, }, "required": ["location"], }, }, } ] response = client.chat.completions.create( model="gpt-3.5-turbo-0125", messages=messages, tools=tools, tool_choice="auto", # auto is default, but we'll be explicit ) response_message = response.choices[0].message tool_calls = response_message.tool_calls # Step 2: check if the model wanted to call a function if tool_calls: # Step 3: call the function # Note: the JSON response may not always be valid; be sure to handle errors available_functions = { "get_current_weather": get_current_weather, } # only one function in this example, but you can have multiple messages.append(response_message) # extend conversation with assistant's reply # Step 4: send the info for each function call and function response to the model for tool_call in tool_calls: function_name = tool_call.function.name function_to_call = available_functions[function_name] function_args = json.loads(tool_call.function.arguments) function_response = function_to_call( location=function_args.get("location"), unit=function_args.get("unit"), ) messages.append( { "tool_call_id": tool_call.id, "role": "tool", "name": function_name, "content": function_response, } ) # extend conversation with function response second_response = client.chat.completions.create( model="gpt-3.5-turbo-0125", messages=messages, ) # get a new response from the model where it can see the function response return second_response print(run_conversation())
out
daichang\.vscode\extensions\ms-python.debugpy-2024.6.0-win32-x64\bundled\libs\debugpy\adapter/../..\debugpy\launcher' '4336' '--' 'E:\OneDrive\aidev\openaidev\02FunctionCalling\get_weather.py'
ChatCompletion(id='chatcmpl-9LTUxLZ36t55gdseSRMHYX8zfKv8N', choices=[Choice(finish_reason='stop', index=0, logprobs=None, message=ChatCompletionMessage(content='The current weather in San Francisco is 72°F, in Tokyo it is 10°C, and in Paris it is 22°C.', role='assistant', function_call=None, tool_calls=None))], created=1714905307, model='gpt-3.5-turbo-0125', object='chat.completion', system_fingerprint='fp_a450710239', usage=CompletionUsage(completion_tokens=28, prompt_tokens=147, total_tokens=175))
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。