赞
踩
GPT-2:这是一个较早开源的模型,适合个人研究和学习。它有不同大小的版本,如117M、345M、774M和1.5B参数版本,可以根据你的计算资源选择不同大小的模型。GPT-2模型是基于TensorFlow实现的,你可以在本地环境中安装TensorFlow和相关依赖库来运行此模型5。
GPT4All:这是一个开源项目,提供了一个可以在本地运行的GPT模型,不需要网络连接,也不强制要求有显卡,CPU也可以运行。它提供了Windows、Linux和macOS的客户端,可以从官网下载对应的安装包进行安装和运行,适合没有专业硬件支持的个人用户4。
Hugging Face上的GPT-2模型:Hugging Face提供了GPT-2的预训练模型,你可以通过Python环境和transformers库来加载和运行这些模型。这些模型同样是基于TensorFlow实现的,适合对NLP有研究兴趣的个人用户5。
OpenAI的GPT-3.5和GPT-4模型:虽然这些模型没有开源,但OpenAI提供了API接口,你可以通过API调用这些模型。最新版本的模型如gpt-3.5-turbo
和gpt-4
都针对对话进行了优化,适合需要高级对话能力的应用场景
以上模型的安装我不再逐条举例,仅以GPT4ALL来推荐新手的运行,如果对于安装步骤不清楚的可以私信或评论区进行留言
GPT4ALL:代码地址:https://github.com/nomic-ai/gpt4all
GPT4ALL-WEBUI:https://github.com/ParisNeo/Gpt4All-webui
pip install gpt4all
- from gpt4all import GPT4All
- model = GPT4All("Meta-Llama-3-8B-Instruct.Q4_0.gguf") # downloads / loads a 4.66GB LLM
- with model.chat_session():
- print(model.generate("How can I run LLMs efficiently on my laptop?", max_tokens=1024))
下载地址:你可以访问GPT4All的官方网站 10,在这里你可以找到与你的操作系统匹配的安装包进行下载。另外,你还可以访问 https://the-eye.eu/public/AI/models/nomic-ai/gpt4all/gpt4all-lora-quantized.bin来下载模型文件 gpt4all-lora-quantized.bin
,文件大小约为3.92GB 9。
安装方法:
下载与你的操作系统匹配的安装包并进行安装。注意,在安装过程中可能需要保持网络连接 12。
将下载的模型文件 gpt4all-lora-quantized.bin
放入 gpt4all-main
文件夹下的 chat
子文件夹中 9。
根据你的操作系统,使用相应的命令启动GPT4All。例如,在Mac上你可以使用 cd chat;./gpt4all-lora-quantized-OSX-m1
命令 9。
如果你遇到安全警告,可能需要在系统设置中允许打开应用程序 9。
你还可以选择下载UI包以获得更好的用户界面体验,安装UI包后,可以在安装路径下的 GPT4ALL
文件夹中找到 bin
文件夹,并运行 chat.app
9。
完成上述步骤后,你就可以开始使用GPT4All了。如果你需要更多帮助,可以查看GPT4All的官方文档
为了便于大家查询,推荐一个AIGC工具导航站点:https://www.mylasting.com
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。