赞
踩
有幸参加几次 CSDN 的线下活动,见证多元的社区文化,碰撞不同年龄不同行业的思维火花,受益颇多,也了解到很多非专业领域的朋友对大模型技术好奇满满,想要拥抱变化,苦于入坑门槛,因此创作本帖,通俗来讲大模型(用人话)。
作者对大模型的认知来源一年多以来的众多论文、帖子、会议以及实际项目经验,若有段内容与哪位大神此前的公开内容有高度重合,请私聊进行修改或者引用!
大模型不是 ChatGPT,ChatGPT系列是大模型的一种,属于大语言模型(LLM)。有一部分大佬将模型参数量大于10 亿作为大模型的特征之一,因为研究发现自然语言模型中的涌现现象是在参数量超过Billion 才出现的。但本文从各领域角度出发,定义大模型不只包括NLP领域,因此除了 LLM,大模型还包括视觉大模型(LVM)、多模态大语言模型(MLLM)、结构化大模型等。这些大模型在自然语言处理、计算机视觉、语音识别、工业/金融/气象等预测、推荐系统、机器人、自动驾驶、教育、医疗等各领域都有广泛的应用。
总之,大模型在各个领域都有着广泛的应用,可以帮助人们更好地理解和处理数据。大模型的应用可以提高工作效率、降低成本、改善生活质量,就像互联网经过几十年的发展,应用到生活中衣、食、住、行、娱乐、医疗、教育等方方面面,大模型也是一样。
不同领域的大模型实现原理差异会很大,目前也没有通用全吃的世界模型,这里面向其它领域小基础的朋友,就不说特别深的细节,光介绍效果好的、广泛的原理。
现在大模型实现分三步走:1是先设计个大规模的网络,用海量的数据进行预训练,训练出一个对输入内容(如文本、图像、语音等单一模态或者多模态的数据)理解能力很强的基础模型,2是人工标注一定量的高质量数据,进行任务对齐,目的是让啥都学的基础模型(数理化政史都要学的高中生)朝着任务目标成长(理科很强的大学生,文科知识也还没遗忘,整体知识质量很高),3是人类反馈对齐(大学生去给其他同学讲课,这个过程也不断得到反馈,慢慢自己的知识提升更符合大家的认知,可以真正去授课)。这三步并不是一次性结束的,是慢慢迭代直到实现最后满意效果。
入坑大模型,分为大模型应用、大模型零代码微调、大模型开发三个程度。大家可以根据自己的专业水平来选择入坑姿势。
当下大模型火热时间尚短,模型稳定性还不够好,围绕拥有较大容错率的行业大模型产品成熟度更高一些,比如ChatGPT做知识检索,Stable Diffusion做图片生成,Sora做视频生成等,将大模型作为生产力工具,提高自己的工作效率、提高娱乐快感,让生活更便利。写作、绘画、图像编辑、聊天、翻译、视频生成编辑、数字人、编程、文档办公、语音编辑,生活中的很多方面都有了大模型的影子。
既然是零代码,那么对用户无编程要求,更多的需要用户能想、敢想,然后利用现成的平台去做DIY。不做广告,因为我只用过百度千帆大模型平台和百度飞浆AI社区,所以就介绍他们(由于平台创作需要费用)。百度的这两个平台已经是比较齐全的在线AI创造工具,直接使用或者DIY都能满足端到端的需求(只要票子够,毕竟人家也需要生活),作为线上开发平台,它们对用户社区比较看重,有很多免费的实战教程和活动可以学习。
开源社区给我们提供了大模型开发的机会,不断有成熟的大模型开发框架、免费的模型开源,让普通人也能爽爽大模型,尤其越来越多优秀的基座大模型开源,让我们只需要有数据和少量算力资源,就可以微调我们的任务。能做大模型开发的跨界朋友都有一些编程基础,可能困惑模型选择、环境搭建、效果调优等问题,给建议是不要盲目相信论文实验和公众号解说,找G站点赞收藏多的框架和模型进行二次开发,如果有遇到问题可以比较容易找到解决答案。
将大模型作为生产力工具!将大模型作为生产力工具!
23年年底,AI行业也惨淡,很多创业小公司、自驾公司、安防公司、互联网公司都在裁员,大厂offer也捂着慢慢挑人。但小编才跳槽的,发现大模型开发的工作还是很轻松找的,有个大模型的项目经验就能轻松拿些offer,有两年经验的可以翻倍跳槽。此帖是面向行外朋友,大模型开发还是有编程和理论门槛的,而且硕士烂大街博士都在卷。这里不建议外行跳大模型开发,建议两条转行大模型的路子,第一,做大模型的使用者,进行价值生产,利用大模型从事翻译、写作、编辑、图像视频创作等工作,一方面因为此类大模型相对成熟、商业化程度高、容易获取,另一方面主打信息差,大模型这股风还没吹到二三线城市,越早参与获利越多;第二,调用大模型的API做商业应用,第一波朋友已经获利满满了,现在入场还来的及,不一定要挤进chat相关应用,在多模态、视觉理解、翻译、音频字幕等很多其它领域大模型才展现优异效果,还能抢占市场,这类API调用成本也不低,同样越早参与进来利润空间越大。
空时手机写的内容,乱糟糟的,诸位看官若有疑问、不满,欢迎留言~~
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。