赞
踩
title:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
论文地址:https://arxiv.org/abs/2201.11903
auto COT代码【COT升级版本】:GitHub - amazon-science/auto-cot: Official implementation for "Automatic Chain of Thought Prompting in Large Language Models" (stay tuned & more will be updated)
auto COT说明:人工去编写COT耗时耗力,auto COT使用机器生成推理过程,然后拼接成COT样例组装成context送入llm,效果居然超过了manual-COT(人工设置的COT)
1.1 Motivation
1.2 Methods
COT是什么:在给出的样例中,写出更详细的推理过程
各种场景COT例子
1.3 Conclusion
1 COT是随着模型大小增加而涌现的一种能力
(1)只在100B左右的大模型上才有效果
(2):任务越难,效果越好,例如GSM8K上,GPT和PaLM用了COT比没有COT高差不多2倍。
(3):利用PaLM540B在GSM8K数据集上达到了SOTA。
2 消融实验:是哪些原因使COT效果表现不错
3 鲁棒性
4 其他场景
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。