当前位置:   article > 正文

chain of thought prompting elicits reasoning in large language models_multimodal chain-of-thought reasoning in language

multimodal chain-of-thought reasoning in language models

 GitHub - amazon-science/auto-cot: Official implementation for "Automatic Chain of Thought Prompting in Large Language Models" (stay tuned & more will be updated)Official implementation for "Automatic Chain of Thought Prompting in Large Language Models" (stay tuned & more will be updated) - GitHub - amazon-science/auto-cot: Official implementation for "Automatic Chain of Thought Prompting in Large Language Models" (stay tuned & more will be updated)https://github.com/amazon-science/auto-cot

Chain of Thought论文、代码和资源【论文精读·43】_哔哩哔哩_bilibili更多论文:https://github.com/mli/paper-reading, 视频播放量 51466、弹幕量 130、点赞数 1857、投硬币枚数 979、收藏人数 699、转发人数 392, 视频作者 跟李沐学AI, 作者简介 ,相关视频:GPT,GPT-2,GPT-3 论文精读【论文精读】,Transformer论文逐段精读【论文精读】,CLIP 改进工作串讲(上)【论文精读·42】,如何读论文【论文精读·1】,你(被)吐槽过论文不够 novel 吗?【论文精读】,如何判断(你自己的)研究工作的价值【论文精读】,Chain-of-Thought Reasoning in Language Models 语言模型中的思维链推理,InstructGPT 论文精读【论文精读·48】,Swin Transformer论文精读【论文精读】,找论文复现代码的四种方法(简介区有文字版总结)https://www.bilibili.com/video/BV1t8411e7Ug/?spm_id_from=333.999.0.0&vd_source=4aed82e35f26bb600bc5b46e65e25c22

manual-cot属于few shot,Q和A属于人工设计的问题,autocot使用let's think step by step,前面的Q和A是采样的。not just step by step,lets one by one,不仅仅使用一个step by step,多次使用。

1.abstract

chain of thought(cot):人类在遇到问题时所产生的的推理步骤,表现形式是一些列的短句子。用了cot之后,palm540b在GSM8k上取得了58.1%。

2.introduction

system 1:能够很快被理解的。system 2:很慢需要理解的,需要一步一步思考的,比如解数学题。

在prompt中不仅给出答案,再让大模型续写,而且给出推理过程,大模型续写正确率会提高。

cot需要更多计算量,因为更多的推理过程;cot有更好的可解释性。

人工构造cot的成本很高的,需要自己写推理过程。

在简单数据集上,模型越大,能力也是越高的,但是在难的数据集上,如果只使用标准的prompt,是不如cot prompt的,即便增大模型参数量效果也是不佳的,并非正相关的。

第一种,只有公式,第二种把cot替换成与中间式子等长的...,第三种把推理过程写在答案后面,效果都不太好,体现出cot中自然语言的作用。

在cot之前的prompt只是大模型语言能力的下线。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/397286
推荐阅读
相关标签
  

闽ICP备14008679号