赞
踩
前言:因为大模型的流行,衍生出了一个小领域“Prompt工程”,不知道大家会不会跟小编一样,不就是写提示吗,这有什么难的,不过大家还是不要小瞧了Prompt工程,现在很多大模型把会“Prompt工程”作为招聘条件,甚至作为一个岗位,小编在这里浅浅的总结一下
Prompt工程(Prompt Engingering),也被称为上下文提示(In-Context Prompting),指的是通过结构化文本等方式来完善提示词,引导LLM输出我们期望的结果。
简单一点来说,就是给LLM模型一些提示或者说指令,让LLM模型清晰准确的知道我们要干什么。
Prompt工程针对不同的任务设计了不同的提示模版,一般包含下述几部分:
大模型对 prompt 开头和结尾的内容更敏感。
先定义角色,其实就是在开头把问题域收窄,减少二义性。
举例子可以让模型快速get到我们的意图,方便好用,并且效果不错
举一个小编深有体会的栗子~
相信读研的小伙伴都会遇到的场景,假如小编现在在写论文,需要将下述这段中文翻译成一段英文:
Yaowei Li等人设计了一个跨模态表示对齐器,使用一组正交基和双门机制来学习全局跨模态对齐,并通过三重对比损失进行全局对齐。
以chatgpt4为例:
prompt:请将下述内容翻译成英文:
【prompt+上述内容】输入到chatgpt4中,得到如下输出:
Yaowei Li and colleagues designed a cross-modal representation aligner that employs a set of orthogonal bases and a dual-gating mechanism to learn global cross-modal alignment. This alignment is achieved through a triplet contrastive loss.
prompt:假如你是一名专业的学术论文撰稿者,你现在正在写论文,对下述内容进行翻译,使其符合学术论文表达:
【prompt+上述内容】 输入到chatgpt4中,得到如下输出:
Yaowei Li et al. have developed a cross-modal representation aligner that leverages a set of orthogonal bases and a dual-gate mechanism to facilitate global cross-modal alignment. The alignment process is optimized using a triplet contrastive loss function to ensure comprehensive alignment across modalities.
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。