当前位置:   article > 正文

打造本地ChatGPT,部署LlaMA3最简单的方法来了!

打造本地ChatGPT,部署LlaMA3最简单的方法来了!

你好,我是郭震

现在还没有用上ChatGPT的朋友,现在平替方法来了,在本地部署大模型。实现与GPT几乎一样的问答效果!

这是一篇关于大模型本地部署的教程,使用目前最强开源大模型LlaMA3,这篇先总结一种最简单、操作步骤最精简的本地部署方法。主要有2步。

f9fabac8eeb59331500f171b40c663d9.png

2024年4月19日,Meta公司发布Llama3,共有8B,70B两种参数,分为基础预训练和指令微调两种模型。与Llama2相比,Llama3使用了15Ttokens的训练数据,在推理、数学、代码生成、指令跟踪等能力获得大幅度提升。

使用完全免费。

步骤1:安装Ollama

Ollama可以简单理解为客户端,实现和大模型的交互。ollama软件win和mac都包括:

545885c73b4a914762fd5bc8ce0c227e.png

在这里已经为大家准备好,只需要在我的公众号回复消息:ollama,就能下载到软件。

下载之后打开,直接点击Next以及Install安装ollama,安装步骤非常简单。

步骤2:安装Llama

下载Llama3,打开新的终端/命令行窗口,执行以下命令:

ollama run llama3

程序会自动下载Llama3的模型文件,默认是8B,也就80亿参数版本,个人电脑完全可以运行。

等待安装完成:

6d51571ba1cb81ff95672e7e3d55d8e1.png

以上就已经安装完毕,到现在大模型已经在本地部署完成。

使用Llama3

打开一个终端窗口,再次输入 ollama run llama3,自动就会启动,进入会话界面:

1a183d2d33fcd34de1d1549a5682f1e3.png

发第一条消息,你是谁,用中文回答,与Llama2相比,Llama3确实在回答速度上大幅提升,基本小于秒级:

6fd0acebecbd20d3079a57975d6a2b88.png

发第二条消息,Python代码,冒泡排序,代码+解释,回答响应非常快,如下图所示:

3f343f0f40250804a252aa6b857aced1.png

再告诉它,用中文回答,返回中文回答结果:

01859cd1170433f3383c82552d2aad23.png

总结

Llama3 本地部署大模型,这是最精简的一种方法,推荐大家先按照此方法去实践,使用起来。


1 点击下面头像,进入我的主页,点击:发送消息按钮,可以直接获取到

《ChatGPT提问指南》教程,免费获取。

2 我打造的Python人工智能全栈课(超700节视频课)已上线,长按二维码查看,咨询或报名请加我微信:gz113097485

4fa16604f5fb1d2b853e1b3cb776027e.png

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/535658
推荐阅读
相关标签
  

闽ICP备14008679号