赞
踩
LLMs:OpenAI官方重磅更新——新增GPT-3.5Turbo调和API更新功能
导读:2023年8月22日,OpenAI官方发布,开发者现在可以使用自己的数据来定制适用于其用例的GPT-3.5 Turbo模型。GPT-3.5 Turbo的微调现在已经可用,GPT-4的微调将在今年秋季推出。此更新使开发者能够定制模型,以便为其用例提供更好的性能,并在规模上运行这些定制模型。初步测试显示,经过微调的GPT-3.5 Turbo版本在某些狭窄任务上可以与基础GPT-4水平的能力相匹配,甚至表现更好。与我们所有的API一样,发送到微调API的数据由客户拥有,不会被OpenAI或任何其他组织用于训练其他模型。
目录
博客文章地址:GPT-3.5 Turbo fine-tuning and API updates
微调指南地址:https://platform.openai.com/docs/guides/fine-tuning
自GPT-3.5 Turbo发布以来,开发者和企业一直在寻求将模型定制为为其用户创建独特和差异化的体验的能力。通过此发布,开发者现在可以运行监督式微调,以使该模型在其用例中表现更佳。
在我们的私人测试版中,微调客户已经能够在常见用例中显著提高模型性能,例如:
>> 改进的可控性:微调使企业能够更好地遵循指示,例如使输出更简洁或始终以给定语言回复。例如,开发者可以使用微调来确保模型在使用德语提示时始终以德语回复。
>> 可靠的输出格式:微调提高了模型一致格式化响应的能力 - 这对于需要特定响应格式的应用程序(如代码补全或组合API调用)来说是至关重要的。开发者可以使用微调来更可靠地将用户提示转换为可与其自己的系统一起使用的高质量JSON片段。
>> 定制音调:微调是磨练模型输出的定性感觉(如其音调)的好方法,使其更符合企业品牌的声音。具有可辨识品牌声音的企业可以使用微调使模型更符合其音调的一致性。
除了提高性能外,微调还使企业能够在确保类似性能的情况下缩短提示。使用GPT-3.5 Turbo进行微调还可以处理4k个标记 - 是我们先前微调模型的两倍。早期测试者通过将指令微调为模型本身,将提示大小缩小了高达90%,加快了每个API调用的速度并降低了成本。
当与提示工程,信息检索和函数调用等其他技术结合使用时,微调效果最佳。请查看我们的微调指南以了解更多信息。对于使用函数调用和gpt-3.5-turbo-16k进行微调的支持将在今年秋季后期推出。
- {
- "messages": [
- { "role": "system", "content": "You are an assistant that occasionally misspells words" },
- { "role": "user", "content": "Tell me a story." },
- { "role": "assistant", "content": "One day a student went to schoool." }
- ]
- }
- curl https://api.openai.com/v1/files \
- -H "Authorization: Bearer $OPENAI_API_KEY" \
- -F "purpose=fine-tune" \
- -F "file=@path_to_your_file"
- curl https://api.openai.com/v1/fine_tuning/jobs \
- -H "Content-Type: application/json" \
- -H "Authorization: Bearer $OPENAI_API_KEY" \
- -d '{
- "training_file": "TRAINING_FILE_ID",
- "model": "gpt-3.5-turbo-0613"
- }'
一旦模型完成微调过程,它就可以立即在生产中使用,并具有与基础模型相同的共享速率限制。
- curl https://api.openai.com/v1/chat/completions \
- -H "Content-Type: application/json" \
- -H "Authorization: Bearer $OPENAI_API_KEY" \
- -d '{
- "model": "ft:gpt-3.5-turbo:org_id",
- "messages": [
- {
- "role": "system",
- "content": "You are an assistant that occasionally misspells words"
- },
- {
- "role": "user",
- "content": "Hello! What is fine-tuning?"
- }
- ]
- }'
我们还将在不久的将来推出微调用户界面,开发者可以更轻松地访问有关进行中的微调作业,已完成的模型快照等信息。
对我们来说,微调的部署非常重要。为了通过微调过程保留默认模型的安全功能,微调训练数据会通过我们的Moderation API和由GPT-4提供支持的调节系统进行传递,以检测与我们的安全标准冲突的不安全训练数据。
微调成本分为两部分:初始培训成本和使用成本:
>> 训练:$0.008 / 1K个标记
>> 使用输入:$0.012 / 1K个标记
>> 使用输出:$0.016 / 1K个标记
例如,对于一个训练文件为100,000个标记的gpt-3.5-turbo微调作业,经过3轮训练,预期成本为$2.40。
在7月份,我们宣布原始的GPT-3基础模型(ada,babbage,curie和davinci)将于2024年1月4日关闭。今天,我们将babbage-002和davinci-002作为这些模型的替代品提供,可以作为基础模型或微调模型。客户可以通过查询Completions API来访问这些模型。
这些模型可以使用我们的新API端点/v1/fine_tuning/jobs进行微调。此新端点提供分页和更多的可扩展性,以支持微调API的未来发展。从/v1/fine-tunes转换为更新的端点非常简单,更多详细信息可以在我们的新微调指南中找到。这会停用旧的/v1/fine-tunes端点,将在2024年1月4日关闭。
基础模型和微调GPT-3模型的定价如下:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。