赞
踩
整体方案设计与规划
我们要做的项目是基于InternLM的考研政治题库系统,
项目灵感来源于我们组内成员都有考研需求,我们希望在面对没有答案解析的题目时能够有一个软件基于现有的知识进行分析给出一个合理的解释,于是我们决定做一款基于大模型的知识题库系统,旨在为考研提供方便。
文科题目“内容多,变化少”的特性,能够完美利用大模型能够处理大量数据、并进行简单思考的优势。于是我们决定以考研政治为主题,以市面上主流的语言大模型为基础,对其进行训练微调,进行独有的知识题库的构建,并应用所学知识搭建页面,使整个系统更加便捷、美观。
项目目标:能够正确回答单选题,多选题,并给出合理的答案解析。
对于材料分析大题能够给出合理的答案
本篇文章是我对轻量化大模型internLM相关知识进行学习之后的一些总结:旨在记录创新项目实训过程中对大模型的学习,方便为后续开发工作打下基础。
2023.06.07 InternLM 千亿参数大模型首次发布
2023.07.06 InernLM 千亿参数大模型全面升级:支持 8k 上下文、26 种语言;全面开源支持商用;同时发布 InternLM-7B 模型
2023.08.14 书生·万卷 1.0 多模态预训练语料库开源发布
2023.08.21 发布对话版模型 InternLM-Chat-7B v1.1 发布,开源智能体框架 Lagent
2023.08.28 InternLM 千亿参数模型参数量升级至 123B
2023.09.20 增强版 InternLM-20B 开源,开源工具链 xtuner 全面升级
轻量级:InternLM-7B,70亿模型参数,10000亿训练token数据,支持 8k 上下文窗口长度,具备通用工具调用能力,支持多种工具调用模板
中量级:InternLM-20B,200亿参数规模,4k 训练语境长度,推理时可外推至16k
重量级:InternLM-123B,1230亿参数,各项性能指标全面升级
InternLM-20B 性能指标:全面领先同量级开源模型,甚至达到 Llama2-70B 水平
书生·万卷 1.0:2TB 数据,涵盖多种模态与任务。
数据特点:
OpenDataLab:开放数据平台
并行训练,速度可达到 3600 tokens/sec/gpu
XTuner:支持全量微调,LoRA 和 QLoRA 等低成本微调。
针对下游应用数据微调的两种方式:
显存占用:
InternLM-7B QLoRA 微调,2048 输入长度,显存占用 11.9G,这真是人类之光
LMDeploy:推理性能达到每秒生成 2000+ tokens
目前国内外评测体系:
OpenCompass 评测平台:80套评测集,40万道题目
中文大模型评测榜单:https://opencompass.org.cn/leaderboard-llm
自家模型不进前三,一看就很公平公正,不过为什么 InternLM-20B 系列模型整体不如 Intern-7B 系列呢。
在学习了Fine-Tuning相关知识后,我认识到大模型微调是利用特定领域的数据集对已预训练的大模型进行进一步训练的过程。它旨在优化模型在特定任务上的性能,使模型能够更好地适应和完成特定领域的任务。
我们使用的微调工具为Xtuner,XTuner是一个高效、灵活、全能的轻量化大模型微调工具库。
该文章总结我对大模型InternLM相关知识的学习,从中我认识了大模型的基本观念,了解到其广泛应用,并对大模型的微调fine-tunning(概念、方法以使用工具)进行了学习,有助于后续工作小组工作的进行。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。