当前位置:   article > 正文

openai-translator 通过open api 使用本地LLM模型_openai translator如何使用

openai translator如何使用

@ 使用openai translator 配置本地大模型进行离线翻译。

1、下载并安装 chrome 插件 openai-translator. https://github.com/openai-translator/openai-translator/releases/tag/v0.3.25
2、在 LM studio 中的Local Server 启动 本地大模型服务。以 Qwen-7B 大模型作为示例;(也可以通过ollama 启动本地大模型)
在这里插入图片描述

3、在openai-translator 配置使用本地LLM。
API Model 选择 Custom,Custom Model Name 填写你启动的模型,此次示例填写 Qwen。API URL填写你启动的服务地址和端口,本处以 http://localhost:1234 作为示例。选择保持后即可开始使用 openai translator进行文章翻译等功能。
在这里插入图片描述

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/464378
推荐阅读
相关标签
  

闽ICP备14008679号