赞
踩
2024-03-26 AIGC-大模型学习路线
建议先从主流的Llama开始,然后选用中文的Qwen/Baichuan/ChatGLM,先快速上手体验prompt工程,然后再学习其架构,跑微调脚本
如果要深入学习,建议再按以下步骤,从更基础的GPT和BERT学起,因为底层是相通的,而且实际落地到一个系统中,应该也是大模型结合小模型(大模型在做判别性的任务上,比BERT优势不是特别大)
可以参考如下方案,按需学习。
按个人偏好总结了学习目标与路径,后续将陆续整理相应学习资料,并输出学习笔记。
内容将同步更新在我的博客园文章https://www.cnblogs.com/justLittleStar以及Github仓库:DayDreamChaser/LLMLanding: Learning LLM Implementaion and Theory for Practical Landing (github.com)
学习思路: 快速应用Transformer等轮子来微调和使用LLM,同时深入学习NLP预训练模型原理和推理部署(因为偏底层的东西变化不大)
Alt text
应用:
1、Zero Shot / Few Shot 快速开箱即用
2、领域数据-指令微调LLM
参数高效的微调,适合用于纠正模型输出格式(PEFT上限不高,并向LLM输入的知识有限)
3、对齐
专注基于强化学习的大语言模型对齐,有前景的方向是SuperhumanAI AutoALign
4、预训练
5、训练推理优化
1.1 技术分析
1.2 市场需求分析
2.1 ChatGPT的工作原理
2.2 算法细节
3.1 Transformer
3.2 GPT
3.3 BERT
3.4 T5系列
3.5 UniLM
4.1 提示学习PromptLearning
4.2 上下文学习 ContextLearning
4.3 指令数据构建
5.1 Mistral
5.2 Llama
5.3 ChatGLM
6.1 全量指令微调SFT
6.2 高效微调PEFT
LORA系列
其他
实战
7.1 预训练模型中的分词器
7.2 分布式训练
7.3 MOE混合专家模型
8.1 推理规划
8.2 综合应用框架
8.3 智能代理AI Agent
第9章 LLM加速
9.1 注意力优化
9.2 CPU推理加速
9.3 推理优化框架
9.4 训练加速
10.1 强化学习概述
10.2 强化学习环境
10.3 强化学习算法
11.1 近端策略优化算法PPO
11.2 基于人类反馈的强化学习RLHF
12.1 任务设计
12.2 数据准备
13.1 数据来源
13.2 数据处理
13.3 数据影响分析
13.4 开源数据集合
14.1 模型评估概述
14.2 大语言模型评估体系
14.3 大语言模型评估方法
14.4 大语言模型评估实践
第15章 多模态大模型
16.1 落地调研
模型最终还需落地解决实际问题,创造价值:优化现有问题、满足、甚至创造用户需求。
总的来说,就是规模化、自动化人的工作,替代人工,批量化、大规模生成或提供服务。
16.2 应用分析
在企业里面做7B、13B量级的微调,主要就是在搞数据、样本,技术壁垒不高。预训练壁垒高,因为需要烧钱堆经验。
在这个日新月异的时代,如何紧跟行业主流发展,并具备不可替代性是个难题:
尽量往底层和工程化上靠,学习相对不变的技术(理论上变化很难),迁移到稳定或有前景的行业,不断提升自己的学习效率:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。