赞
踩
书生浦语大模型全链路开源体系是书生浦语大模型的研发和应用体系,包括模型研发、工具体系和预训练语料库等。书生浦语大模型的规模包括轻量级、中量级和重量级,其中轻量级以70亿参数的模型为代表,中量级以200亿参数的模型为代表,重量级以千亿参数的模型为代表。
大模型在人工智能领域的研究和应用越来越受到关注。
重要原因:
1.大模型是发展人工通用人工智能的一个重要途径。我们可以看到整个的一个AI的研究方向是从专用模型(针对特定的任务来去解决特定的一个用一个模型来去解决一个特定的问题)到通用模型这样的一个过程。
2.现在,更加倾向于用一个模型去应对多种任务和多种模态(ChatGPT),GPT4更是把模态从单纯的这样的语言的模态拓展到了视觉的模态。模型的通用性大幅提高(更面向更高阶的智能的这样的一种潜在的途径)
总结:大模型能够受到广泛关注的原因是它是发展人工通用人工智能的一个重要途径,能够应对多种任务和多种模态,具有更面向更高阶的智能的潜在途径。
书生浦语的大模型其实已经就完成了覆盖轻量级、中量级、重量级的这样的一套不同大小的系列。
没有那么简单,其实也需要去借助一些一些工具,或者说一些框架来去协助它的完成。
模型选型、评估业务场景复杂度、微调、部署和评测
书生浦语开源开放体系,包括数据(开源的书生万卷这样的一个多模态的语料库。它里面包括了2TB的数据,也涵盖了多种模态和任务)、预训练(开源了internLM- train一个预训练框架)、微调(X tuner框架)、部署(LMDeploy)、评测(opencompass等工具)和应用等全链条环节,以及开源工具的功能和优势。
书生万卷是一个多模态的语料库,包括文本、图像和视频数据,对模型的推理能力有显著提升效果。
internLM- train特点
高可扩展 支持从 8 卡到干卡训练 干卡 加速效率达 92% | |
极致性能优化 Hybrid Zero 独特技术+ 极致优化,加速 50% | |
兼容主流 无缝接入 HuggingFace 等 技术生态,支持各类轻量化 技术 | |
开箱即用 支持多种规格语言模型,修改配置即可训练 |
大语言模型的下游应用中,增量续训和有监督微调是经常会用到两种方式。
增量续训
使用场景:让基座模型学习到一些新知识,如某个垂类领域知识训练数据:文章、书籍、代码等
有监督微调
使用场景:让模型学会理解和遵循各种指令,或者注入少量领域知识训练数据:高质量的对话、问答数据
适配多种生态
适配多种硬件
亮点:
丰富模型支持 | 分布式高效评测 | 便捷的数据集接口 | 敏捷的能力选代 |
开源模型、API 模型一站式评测 | 数据集上分布式评测 | 支持干亿参数模型在海量 支持社区用户根据自身需求每周更新大模型能力版单,快速添加自定义数据集 | 每月提升评测工具能力 |
大语言模型特点
内存开销巨大
动态Shape
技术挑战
设备
• 低存储设备(消费级显卡、移动端等)如何部署?
推理
服务
部署方案
技术点
智能体应用方面的局限性,如对最新信息和知识的获取能力不足、可靠性问题以及对外部工具的使用和交互等。
为解决这些问题,需要搭建智能体框架,并调用不同的模块和工具进行规划、推理和执行。
开源的轻量级智能体框架lagend,以及其支持的不同类型的智能体和大语言模型。lagend和agent lego这两个工具箱,分别聚焦于智能体框架和提供多个工具集合,支持各种输入输出格式和主流智能检测系统。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。