当前位置:   article > 正文

AI 学习笔记(持续更新)_ai课程笔记

ai课程笔记

What is AI

PS :代码块里的统一是 gpt4 回复

在大模型中 1 b = 10 亿参数的含义

1 AI 目前是什么?

目前的人工智能(AI)是指使计算机和机器能够模仿人类智能的技术,包括学习、推理、解决问题、知觉、语言理解等能力。AI 可以在数据科学、机器学习、深度学习、自然语言处理等多个领域中找到应用。从智能助手、推荐系统到自动驾驶汽车和机器人,AI 正在改变我们的生活方式、工作方式,甚至思考方式。它代表了科技发展的前沿,正在逐渐成为现代社会的基石。

2 什么是思维链?

通过让大模型逐步参与将一个复杂问题分解为一步一步的子问题并依次进行求解的过程可以显著提升大模型的性能。而这一系列推理的中间步骤就被称为思维链(Chain of Thought)。

在这里插入图片描述

2.1 为什么要使用 CoT ?

自从 CoT 问世以来,CoT 的能力已经被无数工作所验证,如果对使用 CoT 的好处做一个总结,那么可以归纳为以下四点:

  • 增强了大模型的推理能力:CoT 通过将复杂问题分解为多步骤的子问题,相当显著的增强了大模型的推理能力,也最大限度的降低了大模型忽视求解问题的“关键细节”的现象,使得计算资源总是被分配于求解问题的“核心步骤”;
  • 增强了大模型的可解释性:对比向大模型输入一个问题大模型为我们仅仅输出一个答案,CoT 使得大模型通过向我们展示“做题过程”,使得我们可以更好的判断大模型在求解当前问题上究竟是如何工作的,同时“做题步骤”的输出,也为我们定位其中错误步骤提供了依据;
  • 增强了大模型的可控性:通过让大模型一步一步输出步骤,我们通过这些步骤的呈现可以对大模型问题求解的过程施加更大的影响,避免大模型成为无法控制的“完全黑盒”;
  • 增强了大模型的灵活性:仅仅添加一句“Let’s think step by step”,就可以在现有的各种不同的大模型中使用 CoT 方法,同时,CoT 赋予的大模型一步一步思考的能力不仅仅局限于“语言智能”,在科学应用,以及 AI Agent 的构建之中都有用武之地。

为了更加直观的展现出 CoT 对大模型能力带来的提升,论文作者在七个不同的推理任务数据集中对 CoT 的效果进行了实验,如下图所示,可以看到,相较于直接 Prompt, CoT 对所有的推理任务都带来了显著的提升

2.2 何时应该使用 CoT ?

关于何时应该使用 CoT 事实上还是一个开放问题,但是这篇论文从“工程”与“理论”两个角度为我们带来了一些 CoT 适用场景的洞见。

首先,从工程的角度而言,CoT 的适用场景抽象一下可以被归纳为三点,分别是使用大模型(1),任务需要复杂推理(2),参数量的增加无法使得模型性能显著提升(3)。此外,现有的论文实验也表明,CoT 更加适合复杂的推理任务,比如计算或编程,不太适用于简单的单项选择、序列标记等任务之中,并且 CoT 并不适用于那些参数量较小的模型(20B以下),在小模型中使用 CoT 非常有可能会造成机器幻觉等等问题。

2.3 为什么 CoT 会生效?

关于 CoT 为什么会生效,目前尚且没有一套被大家广泛接受的普遍理论。但是,有许多论文对 CoT 与大模型的互动进行了一系列实验,类似物理实验与物理理论的关系,在实验中一些有意思的现象或许可以帮助我们理解 CoT 的工作原理:

  1. 模型规模小会导致 CoT 失效;
  2. 简单的任务 CoT 不会对模型性能带来提升;
  3. 训练数据内部彼此相互联结程度的增加可以提升 CoT 的性能;
  4. 示例中的错误,或者无效的推理步骤不会导致 CoT 性能的下降;

如果我们对这些现象做一些总结与延申,或许可以认为:首先,CoT 需要大模型具备一些方面“最基础”的知识,如果模型过小则会导致大模型无法理解最基本的“原子知识”,从而也无从谈起进行推理;其次,使用 CoT 可以为一些它理解到的基础知识之间搭起一座桥梁,使得已知信息形成一条“链条”,从而使得大模型不会中途跑偏;最后,CoT 的作用,或许在于强迫模型进行推理,而非教会模型如何完成推理,大模型在完成预训练后就已经具备了推理能力,而 CoT 只是向模型指定了一种输出格式,规范模型让模型逐步生成答案。

2.4 CoT 与 AI Agent 有何关系?

回忆我们上一篇中介绍的关于 Agent 的定义,我们期望通过各种AI 技术构建的 Agent 事实上是一类拥有“自主智能的实体”,可以自主的发现问题、确定目标、构想方案、选择方案、执行方案、检查更新。基于大模型解决问题的“通用性”与预训练得到的“先天知识”,构建的大模型智能体可以被认为具有如下图的结构:
在这里插入图片描述

COT:这通常指的是“Chain of Thought”,或者称为“思维链”。在 AI 或机器学习领域,这可能指一种模型解决问题时的逻辑思考过程。简单地说,就像是 AI 在“思考”时的一步步推理过程。

Agent:在 AI 中,代理(Agent)通常指的是一个能够感知环境并作出决策的实体。就像是一个小机器人,它可以观察周围的世界,然后根据所见做出决定。

想象一下,如果你有一个智能机器人(Agent),它在解决问题时会像人一样思考和推理(COT),这样它就能更好地理解问题并找到解决方案。

3 什么是 AI Agents

https://www.simplilearn.com/what-is-intelligent-agent-in-ai-types-function-article#what_is_an_agent_in_ai
在这里插入图片描述

在这里插入图片描述

3.1 AI Agent 具体的工作流程是什么呢?

在这里插入图片描述
根据这幅图,我们可以看到一个 Agent 的整个组成。那么工作流程是什么样的呢?
其实可以理解为一个人体,像类似 chatGPT 这种模型就是他的大脑。其他的概括为一句话就是 Agent = LLM + 记忆 + 规划技能 + 工具使用。就像上图的组成一样。

推荐大家可以去看耿直哥的 动画科普AI Agent:大模型之后为何要卷它?

4 GPT 与 ChatGPT 的差别?

GPT(Generative Pre-trained Transformer)是一种基于Transformer架构的大规模自然语言处理算法,用于生成文本。这种算法首先在大量文本数据上进行预训练,学习语言模式和知识,然后可以在特定任务上进行微调(fine-tuning),以提高在该任务上的表现。GPT的版本有多个,最新的是GPT-4。

ChatGPT是GPT的一个变体,专门针对生成对话式文本进行了优化。它使用了与GPT相同的基本技术,但在对话理解和生成上进行了特别的训练,以便更好地模仿人类的对话方式。ChatGPT能够回答问题、提供解释、解决问题等,就像一个人类在进行聊天时所做的那样。

从通用概念上讲,GPT是一个通用的文本生成模型,而ChatGPT是这个模型的一个特化应用,更专注于对话上下文。本质上,ChatGPT是GPT的一个特定实例,它被训练和优化以在对话环境中更好地工作。
  • 1
  • 2
  • 3
  • 4
  • 5

那么 chatGPT 可以看作是一个用于对话的 agent 是吗?agent 在 AI 中的概念又是什么呢?

是的,ChatGPT可以被看作是一个用于对话的智能代理(agent)。

在人工智能中,代理(Agent)是一个广泛的概念,指的是能够观察环境并在该环境中采取行动以达成某种目标的实体。AI代理可以是简单的(如自动化的温度调节器),也可以是复杂的(如自动驾驶汽车或智能个人助理)。

一个AI代理通常具备以下特性:

1. 感知(Perception):
   代理能够通过传感器或数据输入来感知其环境。对于ChatGPT来说,它的“感知”是通过接收用户输入的文本数据。

2. 行动(Action):
   代理可以对其环境采取行动。在ChatGPT的案例中,行动是生成文本回复。

3. 自主性(Autonomy):
   代理能够在没有外部干预的情况下自主地进行决策和行动。

4. 目标导向(Goal-oriented):
   代理的行动旨在完成某些目标或任务。对于ChatGPT,目标可能是提供信息、解答问题或进行娱乐对话。

5. 适应性(Adaptability):
   智能代理能够从经验中学习,并改进它们的行为以更好地实现其目标。

所以,ChatGPT作为一个AI代理,在与用户进行对话时,它会根据用户的输入(感知)生成响应(行动),并且尽可能地独立于外部控制地进行(自主性),旨在满足用户的需求或解决用户的问题(目标导向),同时通过用户的反馈和互动持续优化其性能(适应性)。
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22

5 强化学习和机械学习的区别

  1. 强化学习:想象一下,你在玩一个视频游戏,你需要通过尝试来学习如何赢得游戏。每次你做出一个动作,游戏会告诉你这是好的(给你奖励)还是不好的(没有奖励或惩罚)。强化学习就像这样,它教会计算机通过尝试和错误来学习做事。比如,用它来训练机器人如何走路,或者用在游戏中,让计算机学会如何下棋。
  2. 机器学习:这就像你在学校里学习。你看很多书(数据),然后试着回答问题(做预测)。如果你回答正确,就意味着你学得不错。机器学习是让计算机通过查看很多数据来学习知识。比如,用机器学习来识别照片中的猫,或者根据过去的天气数据来预测明天会不会下雨。
  • 强化学习:就像有反馈的指导,帮助你完成一个有明确目标的任务。通过不断尝试和从结果中学习(获得奖励或受到惩罚),你学会如何最好地达到这个目标。
  • 机器学习:更像是通过查看大量数据获得某个领域的基本能力。它通过分析数据来找出模式或规律,然后使用这些知识来做出预测或决策。

6 什么是 MOE

所谓专家混合模型(MoE = mix-of-expert),就是把复杂的任务分割成一系列更小、更容易处理的子任务,每个子任务由一个特定领域的「专家」负责。

  1. 专家层:这些是专门训练的小型神经网络,每个网络都在其擅长的领域有着卓越的表现。
  2. 门控网络:这是MoE架构中的决策核心。它负责判断哪个专家最适合处理某个特定的输入数据。门控网络会计算输入数据与每个专家的兼容性得分,然后依据这些得分决定每个专家在处理任务中的作用。
    这些组件共同作用,确保适合的任务由合适的专家来处理。门控网络有效地将输入数据引导至最合适的专家,而专家们则专注于自己擅长的领域。这种合作性训练使得整体模型变得更加多功能和强大。

7 其他

7.1 BM25 增强是什么

BM25 增强(BM25+) 是对 BM25 检索算法的改进和扩展。BM25(Best Match 25)是一种经典的信息检索算法,用于评估文档与查询的匹配程度。它是基于概率检索模型的一种启发式算法,常用于搜索引擎中的文本检索任务。
BM25+ 是对 BM25 算法的增强版本,旨在进一步提高检索效果。BM25+ 在 BM25 的基础上引入了一些改进的技术和策略,包括以下几个方面:

  • 长文档处理:BM25+ 引入了长文档处理机制,通过对长文档进行切分或者单独处理,可以更好地捕捉文档的语义信息,从而提高检索性能。
  • 词项权重调整:BM25+ 使用了更复杂的词项权重调整策略,通过考虑词项的位置、频率等因素,对词项权重进行更精细的调整,以提高检索结果的准确性。
  • 语义扩展:BM25+ 引入了语义扩展技术,通过利用词义关联、同义词等语义信息,对查询进行扩展,以增加相关文档的召回率和排序准确度。
  • 用户反馈:BM25+ 支持用户反馈机制,通过用户的点击行为、喜好等反馈信息,对检索结果进行动态调整和优化,以适应用户需求的变化。

总体而言,BM25+ 通过引入更多的技术和策略,对 BM25 算法进行了增强,以提高文本检索的准确性、召回率和排序效果。这些增强技术可以根据具体的应用场景和需求进行选择和调整,以获得更好的检索效果。

7.2 CTR 预估是什么

CTR 预估是指点击率(Click-Through Rate)的预测。点击率是衡量广告效果的指标,表示广告被点击的频率,通常以百分比形式表示。CTR 预估是在广告投放之前,利用历史数据和机器学习模型等方法,对广告的点击率进行预测。

CTR 预估在广告行业中具有重要的作用。通过预估广告的点击率,广告投放方可以评估广告的效果,并决策是否选择该广告进行投放。同时,CTR 预估也对广告平台和广告主的收益有一定的影响,因为广告平台通常会根据广告的预估点击率确定广告的展示位置和出价,而广告主则可以根据CTR 预估来优化广告创意和投放策略。

CTR 预估的方法可以多种多样,包括基于历史数据的统计方法、机器学习方法(如逻辑回归、决策树、深度学习等),以及使用特征工程、上下文信息等技术进行改进。这些方法都旨在通过分析广告素材、用户特征、广告位信息等因素,预测广告的点击率,以提高广告投放的效果和效率。

引用

1、从 Cot 到 Agent,最全综述!
2、https://www.simplilearn.com/what-is-intelligent-agent-in-ai-types-function-article#what_is_an_agent_in_ai
3、动画科普AI Agent:大模型之后为何要卷它?
4、MOE

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/907992
推荐阅读
相关标签
  

闽ICP备14008679号