赞
踩
线上地址:https://learn.deeplearning.ai/courses/langchain/lesson/2/models%2C-prompts-and-parsers
在线可以免费使用KEY,本地需要给自己的API充值。
2024年6月12日之后使用gpt-3.5-turbo模型。此前则一直用gpt-3.5-turbo-0301模型。
自定义函数get_completion,参数1设置提示词,参数2设置模型,向LLM请求响应并返回响应结果。
向大模型提问,1+1等于几。
提示设置两个输入:具体内容和内容风格。
ChatOpenAI(),参数1设置值越大,输出内容越随机。参数2,指定模型。抽象成对象chat。
from_template()返回值调用format_messages(),参数为用户输入。
调用ChatOpenAI实例化对象,传入format_messages()生成的提示词,获取大模型响应并打印。
重新设置字符串,传入format_message()。
表现形式虽然为json,实际内容是字符串,最后的错误表示无法用字典操作,证明了这一点。
指定LLM的响应格式,我们想让LLM输出的内容是什么格式。
通过解析器解析响应,获得我们指定的格式
直接使用openAI的API接口比较复杂,使用langchain框架比较简单。可以通过langchain生成提示词模板,然后用模板生成提示。如果想让LLM输出的格式不是字符串而是我们指定的格式,我们需要先设置好格式,然后用解析器生成可以让LLM响应的内容是此格式的提示,最终构建完整的提示词,然后用解析器解析LLM响应,就可以得到符合我们指定格式的内容。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。