当前位置:   article > 正文

Qwen2大模型本地部署+高考作文_qwen2本地部署

qwen2本地部署

高考语文考试结束了,高考作文又成为了备受关注的热点,AI时代也进入了高考作文内容中,新课标I卷的题目:

随着互联网的普及、人工智能的应用,越来越多的问题能很快得到答案。那么,我们的问题是否会越来越少?

以上材料引发了你怎样的联想和思考?请写一篇文章。

要求:选准角度,确定立意,明确文体,自拟标题;不要套作,不得抄袭;不得泄露个人信息;不少于800字。

恰好今天阿里云通义千问发布Qwen2开源大模型,最新版本Qwen2有以下特点:

5种模型规模,包括0.5B、1.5B、7B、57B-A14B和72B;

针对每种尺寸提供基础模型和指令微调模型,并确保指令微调模型按照人类偏好进行校准;

基础模型和指令微调模型的多语言支持;

所有模型均稳定支持32K长度上下文;Qwen2-7B-Instruct与Qwen2-72B-Instruct可支持128K上下文(需额外配置)

支持工具调用、RAG(检索增强文本生成)、角色扮演、AI Agent等;

加上早两天的智谱AI开源的GLM-4系列:“全面升级的新一代基座大模型GLM-4,整体性能相比GLM3提升60%,支持128K上下文,可根据用户意图自主理解和规划复杂指令、完成复杂任务”

国内AI大模型又进入新一轮的模型开源竞赛,根据他们的宣传比上一代都有显著的提升,要知道上一代Qwen1.5发布时间是2月6号,这才刚刚过去了4个月,而智谱的ChatGLM-3开源时间在去年10月份,两代相隔也只有8个月。那放眼国外有Llama 3是Meta于4月发布,谷歌的Gemma-7B也在2月开源,还有很多开源大模型如Phi-3、deepseek-v2等等,都有不错的表现,接下来各个大语言模型排行榜又要迎来新的一轮更新。

很多排行榜还没来得及更新,期待他们后续表现

image.png

那从一众开源大模型引入我们今天的话题,开源大模型本地部署+高考作文的表现

Qwen2高考作文表现如何?

iShot_2024-06-07_14.26.54.png

首先我让本地部署的Qwen2-7B分析一下作文题:首先请从高中语文的角度分析一下这个题目。

然后让他扮演扮演一位高考学生,根据分析写一篇优秀作文

iShot_2024-06-07_14.28.22.png

可以看到虽然我只用了Qwen2-7B,还没有上Qwen2-72B,但效果已经非常不错,推理速度很快,文章分析思路和质量都是在线水平,我不是高中语文老师,这里不做打分,只对技术使用进行主观评判。

那我用同样的问题问chatgpt-4o的结果如下:

image.png

image.png

可以简单对比一下,开源Qwen2-7B和OpenAI的最新商用大模型chatgpt-4o的区别,我这里不进行评判。

接下来说重点,那既然本地部署的开源模型在某些方面似乎也能够勉强达到商用大模型的效果,是不是以后开源本地部署方案会不会逐渐成为一种主流呢?私有化部署和调用商用线上大模型的区别和接下来生态的发展走向会是什么样呢?最核心的使用不同方案的成本如何呢?

私有化部署大模型是不是趋势?

我最近一直在研究一套能够 拔网线断WIFI 也能使用大语言模型能力的解决方案,希望能够简单上手部署,也能够方便使用,还不用花多少钱成本,这样我无论在何时何地都能够用来提升工作、学习生活的效率,简单点说就是没有续航焦虑。

大模型带给我们的不应该是焦虑,而应该是随手可使用,就像喝水一样容易,那我目前探索的这一套方案是这样:ollama + Qwen2-7B + open-webui

image.png

除了聊天对话翻译,还可以对文档进行问答、总结,这都是在 拔网线断WIFI 的前提下进行的,再加上stable-diffusion的画图能力,基本上就能够搭建一个本地个人大模型工作站了。我们暂时不谈大模型尺寸导致的效果不及预期这个问题,因为按照文章开头说的发展情况,接下来的开源大模型能力只会越来越强,我们只要紧跟发展的步伐,及时享受AI时代的红利即可。

当然更多私有化大模型的预训练和微调、垂直行业大模型的定制开发不在本次讨论范围内,不讨论但不代表没有人在做,只是还没有到全面爆发的时机,目前大模型应用还处在非常早期的探索阶段,咱先从最基础的开始玩起来,玩明白基础版了再去玩高级版也不迟

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/空白诗007/article/detail/851038
推荐阅读
相关标签