赞
踩
在本文中,我们将看到在本地运行任何 LLM 的不同方法
LM Studio 是一款桌面应用程序,用于在计算机上运行本地 LLM。链接:https://lmstudio.ai/
Ollama 是一款工具,可让您在机器上本地运行开源大型语言模型 (LLM)。它支持多种模型,包括 Llama 2、Code Llama 等。它将模型权重、配置和数据捆绑到一个由 Modelfile 定义的包中。链接:https://ollama.com/
Hugging Face 是机器学习和人工智能的 Docker Hub 版本,提供大量开源模型。Hugging Face 还提供 transformers,这是一个 Python 库,可简化本地运行 LLM 的过程。示例:如何运行 Microsoft 的 Phi 2import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
torch.set_default_device("cuda")
model = AutoModelForCausalLM.from_pretrained("microsoft/phi-2", torch_dtype="auto", trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained("microsoft/phi-2", trust_remote_code=True)
inputs = tokenizer('''def print_prime(n):
"""
Print all primes between 1 and n
"""''', return_tensors="pt", return_attention_mask=False)
outputs = model.generate(**inputs, max_length=200)
text = tokenizer.batch_decode(outputs)[0]
print(text)
LangChain 是一个用于构建 AI 应用程序的 Python 框架。它提供抽象和中间件,以便在其支持的模型之一之上开发 AI 应用程序。例如,以下代码向 Microsoft/DialoGPT-medium 模型提出一个问题:from langchain.llms.huggingface_pipeline import HuggingFacePipeline
hf = HuggingFacePipeline.from_model_id(
model_id="microsoft/DialoGPT-medium", task="text-generation", pipeline_kwargs={"max_new_tokens": 200, "pad_token_id": 50256},
)
from langchain.prompts import PromptTemplate
template = """Question: {question}
Answer: Let's think step by step."""
prompt = PromptTemplate.from_template(template)
chain = prompt | hf
question = "What is electroencephalography?"
print(chain.invoke({"question": question}))
Llama.cpp 是一个基于 C 和 C++ 的 LLM 推理引擎,针对 Apple 芯片进行了优化,并运行 Meta 的 Llama2 模型。链接:https: //github.com/ggerganov/llama.cpp
由 Mozilla 开发,为运行 LLM 提供了一种用户友好的替代方案。Llamafile 以其可移植性和创建单文件可执行文件的能力而闻名。链接:https ://github.com/Mozilla-Ocho/llamafile
Jan通过在您的计算机上本地运行 LLM ,将您的计算机变成AI机器。这是一个注重隐私、本地优先的开源解决方案。链接:https://jan.ai/
Simon Willison 的 LLM 是我见过的在自己的机器上下载和使用开源 LLM 的更简单的方法之一。虽然你需要安装 Python 才能运行它,但你不需要接触任何 Python 代码。如果你在 Mac 上使用 Homebrew,只需安装pip install llm
LLM 默认使用 OpenAI 模型,但您可以使用插件在本地运行其他模型。例如,如果您安装 gpt4all 插件,您将可以访问 GPT4All 中的其他本地模型。此外还有适用于 llama、MLC 项目和 MPT-30B 的插件,以及其他远程模型。
使用 LLM install model-name 在命令行上安装插件:llm install llm-gpt4all
要向本地 LLM 发送查询,请使用以下语法:llm -m the-model-name "Your query"
GPT4ALL 是一款易于使用的桌面应用程序,具有直观的 GUI。它支持本地模型运行,并通过 API 密钥提供与 OpenAI 的连接。它以处理本地文档以获取上下文、确保隐私的能力而脱颖而出。链接:https: //gpt4all.io/index.html
h2oGPT 简化了创建私人 LLM 的过程。它包括一个大型语言模型、一个嵌入模型、一个用于文档嵌入的数据库、一个命令行界面和一个图形用户界面。
用户名和密码随便填,你可以在这里测试:https://gpt.h2o.ai/
链接:https://github.com/h2oai/h2ogpt
顾名思义,您还可以使用它运行本地 LLM!链接:https://github.com/GoogleCloudPlatform/localllm
适用于大型语言模型的 Gradio Web UI。其目标是成为文本生成的 AUTOMATIC1111/stable-diffusion-webui。链接:https: //github.com/oobabooga/text-generation-webui
您可以从以下链接下载它的最新版本:https://github.com/LostRuins/koboldcpp/releases。
LocalAI 是免费的开源 OpenAI 替代品。LocalAI 可作为替代 REST API,与 OpenAI(Elevenlabs、Anthropic……)API 规范兼容,用于本地 AI 推理。它允许您在本地或使用消费级硬件在本地运行 LLM、生成图像和音频(不止于此),支持多种模型系列。不需要 GPU。链接:https: //github.com/mudler/LocalAI
这是一个简单、轻量级的基于浏览器的 UI,用于使用 ExLlamaV2 运行本地推理。链接:https: //github.com/turboderp/exui
vLLM 是一个快速且易于使用的 LLM 推理和服务库。安装非常简单pip install vllm
链接:https://github.com/vllm-project/vllm
MLX 是 Apple 芯片上用于机器学习研究的阵列框架,由 Apple 机器学习研究部门提供。您也可以托管本地 LLM
链接:https://github.com/ml-explore/mlx
CTranslate2 是一个 C++ 和 Python 库,用于使用 Transformer 模型进行高效推理。目前支持以下模型类型:
链接:https://github.com/OpenNMT/CTranslate2
一个不仅提供法学硕士学位,还提供多种解决方案的平台。链接:https://pinokio.computer/
PowerInfer 是一款利用激活局部性为您的设备提供 CPU/GPU LLM 推理引擎。链接:https: //github.com/SJTU-IPADS/PowerInfer
MLC LLM 是一种通用解决方案,允许将任何语言模型本地部署在各种硬件后端和本机应用程序上。链接:https://llm.mlc.ai/
运行并使用任何 LLM。链接:https://github.com/neuml/txtai
RayLLM(原名 Aviary)是一款基于 Ray Serve 构建的 LLM 服务解决方案,可轻松部署和管理各种开源 LLM。链接:https://github.com/ray-project/ray-llm
llama.cpp 的 C#/.NET 绑定。它提供更高级别的 API 来推断 LLaMA 模型,并使用 C#/.NET 将其部署到本地设备上。它适用于 Windows、Linux 和 Mac,无需自行编译 llama.cpp。即使没有 GPU 或 GPU 内存不足,您仍然可以使用 LLaMA 模型!链接:https: //github.com/SciSharp/LLamaSharp
您可以在本地安装 LMQL,也可以使用基于 Web 的 Playground IDE。要通过 Transformers 或 llama.cpp 使用自托管模型,您必须在本地安装 LMQL。要在本地安装 LMQL:pip install lmql
#Running LMQL Programs
lmql playground
更多信息:
Ava PLS 是一款开源桌面应用程序,用于在您的计算机上本地运行语言模型。它允许您执行各种语言任务,如文本生成、语法校正、改写、摘要、数据提取等。链接:https://avapls.com/
使用 OpenAI 格式调用所有 LLM API [Bedrock、Huggingface、VertexAI、TogetherAI、Azure、OpenAI 等] 链接:https ://github.com/BerriAI/litellm
也没有真正使用 LLM 开发 AI APP,但这款应用提供了在您自己的机器上使用 LLM 的聊天体验,使用 HammerAI,您可以与在您的浏览器中本地运行的角色扮演 AI 角色聊天——100% 免费且完全私密。链接:https://www.hammerai.com/
谷歌和亚马逊提供法学硕士 (LLM) 托管解决方案
大量的AI教程资源和LLM模型汇集。可以学习到很多。有一个本地化LLM的产品在孵化。等待她们的发布地址。
欢迎你分享你的作品到我们的平台上. http://www.shxcj.com 或者 www.2img.ai 让更多的人看到你的才华。
创作不易,觉得不错的话,点个赞吧!!!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。