赞
踩
PS :代码块里的统一是 gpt4 回复
在大模型中 1 b = 10 亿参数的含义
目前的人工智能(AI)是指使计算机和机器能够模仿人类智能的技术,包括学习、推理、解决问题、知觉、语言理解等能力。AI 可以在数据科学、机器学习、深度学习、自然语言处理等多个领域中找到应用。从智能助手、推荐系统到自动驾驶汽车和机器人,AI 正在改变我们的生活方式、工作方式,甚至思考方式。它代表了科技发展的前沿,正在逐渐成为现代社会的基石。
通过让大模型逐步参与将一个复杂问题分解为一步一步的子问题并依次进行求解的过程可以显著提升大模型的性能。而这一系列推理的中间步骤就被称为思维链(Chain of Thought)。
自从 CoT 问世以来,CoT 的能力已经被无数工作所验证,如果对使用 CoT 的好处做一个总结,那么可以归纳为以下四点:
为了更加直观的展现出 CoT 对大模型能力带来的提升,论文作者在七个不同的推理任务数据集中对 CoT 的效果进行了实验,如下图所示,可以看到,相较于直接 Prompt, CoT 对所有的推理任务都带来了显著的提升。
关于何时应该使用 CoT 事实上还是一个开放问题,但是这篇论文从“工程”与“理论”两个角度为我们带来了一些 CoT 适用场景的洞见。
首先,从工程的角度而言,CoT 的适用场景抽象一下可以被归纳为三点,分别是使用大模型(1),任务需要复杂推理(2),参数量的增加无法使得模型性能显著提升(3)。此外,现有的论文实验也表明,CoT 更加适合复杂的推理任务,比如计算或编程,不太适用于简单的单项选择、序列标记等任务之中,并且 CoT 并不适用于那些参数量较小的模型(20B以下),在小模型中使用 CoT 非常有可能会造成机器幻觉等等问题。
关于 CoT 为什么会生效,目前尚且没有一套被大家广泛接受的普遍理论。但是,有许多论文对 CoT 与大模型的互动进行了一系列实验,类似物理实验与物理理论的关系,在实验中一些有意思的现象或许可以帮助我们理解 CoT 的工作原理:
如果我们对这些现象做一些总结与延申,或许可以认为:首先,CoT 需要大模型具备一些方面“最基础”的知识,如果模型过小则会导致大模型无法理解最基本的“原子知识”,从而也无从谈起进行推理;其次,使用 CoT 可以为一些它理解到的基础知识之间搭起一座桥梁,使得已知信息形成一条“链条”,从而使得大模型不会中途跑偏;最后,CoT 的作用,或许在于强迫模型进行推理,而非教会模型如何完成推理,大模型在完成预训练后就已经具备了推理能力,而 CoT 只是向模型指定了一种输出格式,规范模型让模型逐步生成答案。
回忆我们上一篇中介绍的关于 Agent 的定义,我们期望通过各种AI 技术构建的 Agent 事实上是一类拥有“自主智能的实体”,可以自主的发现问题、确定目标、构想方案、选择方案、执行方案、检查更新。基于大模型解决问题的“通用性”与预训练得到的“先天知识”,构建的大模型智能体可以被认为具有如下图的结构:
COT:这通常指的是“Chain of Thought”,或者称为“思维链”。在 AI 或机器学习领域,这可能指一种模型解决问题时的逻辑思考过程。简单地说,就像是 AI 在“思考”时的一步步推理过程。
Agent:在 AI 中,代理(Agent)通常指的是一个能够感知环境并作出决策的实体。就像是一个小机器人,它可以观察周围的世界,然后根据所见做出决定。
想象一下,如果你有一个智能机器人(Agent),它在解决问题时会像人一样思考和推理(COT),这样它就能更好地理解问题并找到解决方案。
根据这幅图,我们可以看到一个 Agent 的整个组成。那么工作流程是什么样的呢?
其实可以理解为一个人体,像类似 chatGPT 这种模型就是他的大脑。其他的概括为一句话就是 Agent = LLM + 记忆 + 规划技能 + 工具使用。就像上图的组成一样。
推荐大家可以去看耿直哥的 动画科普AI Agent:大模型之后为何要卷它?
GPT(Generative Pre-trained Transformer)是一种基于Transformer架构的大规模自然语言处理算法,用于生成文本。这种算法首先在大量文本数据上进行预训练,学习语言模式和知识,然后可以在特定任务上进行微调(fine-tuning),以提高在该任务上的表现。GPT的版本有多个,最新的是GPT-4。
ChatGPT是GPT的一个变体,专门针对生成对话式文本进行了优化。它使用了与GPT相同的基本技术,但在对话理解和生成上进行了特别的训练,以便更好地模仿人类的对话方式。ChatGPT能够回答问题、提供解释、解决问题等,就像一个人类在进行聊天时所做的那样。
从通用概念上讲,GPT是一个通用的文本生成模型,而ChatGPT是这个模型的一个特化应用,更专注于对话上下文。本质上,ChatGPT是GPT的一个特定实例,它被训练和优化以在对话环境中更好地工作。
那么 chatGPT 可以看作是一个用于对话的 agent 是吗?agent 在 AI 中的概念又是什么呢?
是的,ChatGPT可以被看作是一个用于对话的智能代理(agent)。 在人工智能中,代理(Agent)是一个广泛的概念,指的是能够观察环境并在该环境中采取行动以达成某种目标的实体。AI代理可以是简单的(如自动化的温度调节器),也可以是复杂的(如自动驾驶汽车或智能个人助理)。 一个AI代理通常具备以下特性: 1. 感知(Perception): 代理能够通过传感器或数据输入来感知其环境。对于ChatGPT来说,它的“感知”是通过接收用户输入的文本数据。 2. 行动(Action): 代理可以对其环境采取行动。在ChatGPT的案例中,行动是生成文本回复。 3. 自主性(Autonomy): 代理能够在没有外部干预的情况下自主地进行决策和行动。 4. 目标导向(Goal-oriented): 代理的行动旨在完成某些目标或任务。对于ChatGPT,目标可能是提供信息、解答问题或进行娱乐对话。 5. 适应性(Adaptability): 智能代理能够从经验中学习,并改进它们的行为以更好地实现其目标。 所以,ChatGPT作为一个AI代理,在与用户进行对话时,它会根据用户的输入(感知)生成响应(行动),并且尽可能地独立于外部控制地进行(自主性),旨在满足用户的需求或解决用户的问题(目标导向),同时通过用户的反馈和互动持续优化其性能(适应性)。
所谓专家混合模型(MoE = mix-of-expert),就是把复杂的任务分割成一系列更小、更容易处理的子任务,每个子任务由一个特定领域的「专家」负责。
BM25 增强(BM25+) 是对 BM25 检索算法的改进和扩展。BM25(Best Match 25)是一种经典的信息检索算法,用于评估文档与查询的匹配程度。它是基于概率检索模型的一种启发式算法,常用于搜索引擎中的文本检索任务。
BM25+ 是对 BM25 算法的增强版本,旨在进一步提高检索效果。BM25+ 在 BM25 的基础上引入了一些改进的技术和策略,包括以下几个方面:
总体而言,BM25+ 通过引入更多的技术和策略,对 BM25 算法进行了增强,以提高文本检索的准确性、召回率和排序效果。这些增强技术可以根据具体的应用场景和需求进行选择和调整,以获得更好的检索效果。
CTR 预估是指点击率(Click-Through Rate)的预测。点击率是衡量广告效果的指标,表示广告被点击的频率,通常以百分比形式表示。CTR 预估是在广告投放之前,利用历史数据和机器学习模型等方法,对广告的点击率进行预测。
CTR 预估在广告行业中具有重要的作用。通过预估广告的点击率,广告投放方可以评估广告的效果,并决策是否选择该广告进行投放。同时,CTR 预估也对广告平台和广告主的收益有一定的影响,因为广告平台通常会根据广告的预估点击率确定广告的展示位置和出价,而广告主则可以根据CTR 预估来优化广告创意和投放策略。
CTR 预估的方法可以多种多样,包括基于历史数据的统计方法、机器学习方法(如逻辑回归、决策树、深度学习等),以及使用特征工程、上下文信息等技术进行改进。这些方法都旨在通过分析广告素材、用户特征、广告位信息等因素,预测广告的点击率,以提高广告投放的效果和效率。
1、从 Cot 到 Agent,最全综述!
2、https://www.simplilearn.com/what-is-intelligent-agent-in-ai-types-function-article#what_is_an_agent_in_ai
3、动画科普AI Agent:大模型之后为何要卷它?
4、MOE
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。