当前位置:   article > 正文

本地部署chatgpt之老虎中文大模型_tigerbot 大语言模型 部署

tigerbot 大语言模型 部署

介绍

TigerBot 是一个多语言多任务的大规模语言模型(LLM)。根据 OpenAI InstructGPT 论文在公开 NLP 数据集上的自动评测,TigerBot-7B 达到 OpenAI 同样大小模型的综合表现的 96%,并且这只是我们的 MVP,在此我们将如下探索成果开源:

模型:TigerBot-7B, TigerBot-7B-base,TigerBot-180B (research version),
代码:基本训练和推理代码,包括双卡推理 180B 模型的量化和推理代码,
数据:预训练 100G,从 2TB 过滤后的数据中经过去噪去重清洗而得;监督微调 1G 或 100 万条数据,按比例涵盖用户指令常见的 10 大类 120 小类任务,
API: chat, plugin, finetune, 让用户能在半小时内无代码的训练和使用专属于自己的大模型和数据,
领域数据:涵盖金融,法律,百科,广邀大模型应用开发者,一起打造中国的世界级的应用。
我们在 BLOOM 基础上,在模型架构和算法上做了如下优化:

指令完成监督微调的创新算法以获得更好的可学习型(learnability),
运用 ensemble 和 probabilistic modeling 的方法实现更可控的事实性(factuality)和创造性(generativeness),
在并行训练上,我们突破了 deep-speed 等主流框架中若干内存和通信问题,使得在千卡环境下数月无间断,
对中文语言的更不规则的分布,从 tokenizer 到训练算法上做了更适合的算法优化。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/179487
推荐阅读
相关标签
  

闽ICP备14008679号