赞
踩
LLM之LM studio:LM studio的简介、安装和使用方法、案例应用之详细攻略
目录
1、LM Studio 服务器:通过运行在 localhost 上的 OpenAI 风格的 HTTP 服务器使用本地 LLM
进行推断请求(使用 OpenAI 的“Chat Completions”格式)
2、文本嵌入:使用 LM Studio 的嵌入服务器本地生成文本嵌入(适用于 RAG 应用程序)
LM Studio的口号是发现、下载并运行本地 LLMs。LM Studio 是一款桌面应用程序,可在您的计算机上运行本地大型语言模型(LLMs)。
官网:LM Studio - Discover, download, and run local LLMs
>> 在笔记本电脑上运行llm,完全脱机
>> 通过应用内聊天界面或OpenAI兼容的本地服务器使用模型
>> 从HuggingFace���存储库下载任何兼容的模型文件
>> 在应用程序的主页上发现新的和值得注意的法学硕士
LM Studio支持HuggingFace上的任何ggml Llama, MPT和StarCoder模型(Llama 2, Orca, Vicuna, Nous Hermes, WizardCoder, MPT等)
M1/M2/M3 Mac,或支持AVX2处理器的Windows PC。Linux有测试版。建议至少 16GB 的 RAM。对于 PC,建议至少 6GB 的 VRAM。支持 NVIDIA/AMD GPU。
>> Windows (x86, x64, AVX2):拥有支持 AVX2 的处理器(通常是较新的 PC)的 Windows
>> macOS (Apple Silicon - M1/M2/M3):搭载 macOS 13.6 或更新版本的 Apple Silicon Mac(M1/M2/M3)。
>> Linux (x86, Ubuntu 22.04, AVX2):拥有支持 AVX2 的处理器(通常是较新的 PC)的Linux PC
下载地址:LM Studio - Discover, download, and run local LLMs
Linux地址:https://releases.lmstudio.ai/linux/0.2.18/beta/LM_Studio-0.2.18.AppImage
Windows:https://releases.lmstudio.ai/windows/0.2.18-a/latest/LM-Studio-0.2.18-Setup.exe
>> LM Studio 服务器:介绍了如何使用 LM Studio 中的本地服务器通过 API 来加载和运行本地 LLM,并提供了关于请求和响应格式的信息以及如何进行推断请求的示例。
>> 文本嵌入:介绍了文本嵌入的概念,以及如何使用 LM Studio 的嵌入服务器来生成文本嵌入。还提供了关于请求和响应格式的信息以及如何获取文本嵌入的示例请求和响应。
源文地址:Local LLM Server | LM Studio
您可以通过在本地主机上运行的 API 服务器使用您在 LM Studio 中加载的 LLM。
请求和响应遵循 OpenAI 的 API 格式。
将当前使用 OpenAI 的任何代码指向 localhost:PORT 以使用本地 LLM。
- GET /v1/models
- POST /v1/chat/completions
- POST /v1/embeddings
- POST /v1/completions
其中,POST /v1/embeddings 是 LM Studio 0.2.19 中的新功能。在此处阅读有关它的信息。
第1步,如果尚未安装 LM Studio,请安装它。从 https://lmstudio.ai 获取应用程序安装程序。
第2步,从应用程序中搜索并下载 LLM,例如 TheBloke/Mistral-7B-Instruct-v0.2-GGUF(磁盘上约 4GB)
第3步,转到本地服务器选项卡(<- 在左侧)
第4步,通过从下拉菜单中选择它来加载您下载的任何 LLM。
第5步,通过单击绿色的“启动服务器”按钮来启动服务器。
您的 LM Studio 现在已准备好接受传入的 API 请求。您可以安全地最小化应用程序;服务器将继续运行。
curl http://localhost:1234/v1/models
在下述情况下,TheBloke/phi-2-GGUF 和 lmstudio-ai/gemma-2b-it-GGUF 都已加载。
- {
- "data": [
- {
- "id": "TheBloke/phi-2-GGUF/phi-2.Q4_K_S.gguf",
- "object": "model",
- "owned_by": "organization-owner",
- "permission": [
- {}
- ]
- },
- {
- "id": "lmstudio-ai/gemma-2b-it-GGUF/gemma-2b-it-q4_k_m.gguf",
- "object": "model",
- "owned_by": "organization-owner",
- "permission": [
- {}
- ]
- }
- ],
- "object": "list"
- }%
在此示例中,本地服务器运行在端口 1234 上。您可以在应用程序中的服务器控制栏中更改它。
第1步,打开您的终端(在 Windows 上尝试 Git Bash)
第2步,复制并运行以下请求
- curl http://localhost:1234/v1/chat/completions \
- -H "Content-Type: application/json" \
- -d '{
- "messages": [
- { "role": "system", "content": "You are a helpful coding assistant." },
- { "role": "user", "content": "How do I init and update a git submodule?" }
- ],
- "temperature": 0.7,
- "max_tokens": -1,
- "stream": true
- }'
有关每个参数的说明,请参阅 https://platform.openai.com/docs/api-reference/chat/create
- model
- top_p
- top_k
- messages
- temperature
- max_tokens
- stream
- stop
- presence_penalty
- frequency_penalty
- logit_bias
- repeat_penalty
- seed
注意:文本嵌入处于测试版。从这里下载支持它的 LM Studio。请在 LM Studio Discord 上报告任何错误/反馈。
文本嵌入是将文本表示为数字向量的一种方法。嵌入经常在检索增强生成(RAG)应用程序中使用。继续阅读了解如何使用 LM Studio 的嵌入服务器完全本地生成文本嵌入。
从版本 0.2.19 开始,LM Studio 包括一个文本嵌入端点,允许您生成嵌入。
请求和响应格式遵循 OpenAI 的 API 格式。在此处阅读有关它的信息。
示例用途包括 RAG 应用程序、代码搜索应用程序以及任何需要文本嵌入的应用程序。
需要 LM Studio 0.2.19 或更新版本。从 lmstudio.ai/beta-releases.html 下载测试版。
第1步,转到本地服务器选项卡(<- 在左侧)并启动服务器。
第2步,通过选择它从嵌入模型设置下拉菜单中选择一个文本嵌入模型来加载它。
第3步,利用 POST /v1/embeddings 端点获取您文本的嵌入。
假设服务器正在端口 1234 上监听
支持的输入类型是字符串和字符串数组(字符串数组)
- curl http://localhost:1234/v1/embeddings \
- -H "Content-Type: application/json" \
- -d '{
- "input": "Your text string goes here",
- "model": "model-identifier-here"
- }'
- {
- "object": "list",
- "data": [
- {
- "object": "embedding",
- "embedding": [
- -0.005118194036185741,
- -0.05910402536392212,
- ... truncated ...
- -0.02389773353934288
- ],
- "index": 0
- }
- ],
- "model": "nomic-ai/nomic-embed-text-v1.5-GGUF/nomic-embed-text-v1.5.Q5_K_M.gguf",
- "usage": {
- "prompt_tokens": 0,
- "total_tokens": 0
- }
- }
任何 GGUF 格式的 BERT 模型都应该可以使用。如果遇到问题,请在 LM Studio Discord 上报告错误。
nomic-embed-text-v1.5
bge-large-en-v1.5
通过 LM Studio 内置的模型下载器搜索并下载这些模型。
持续更新中……
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。