当前位置:   article > 正文

Ollma本地大模型沉浸式翻译【403报错解决】_ollama 403

ollama 403

最终效果

通过Chrome的 沉浸式翻译 插件,用OpenAI通用接口调用本地的Ollma上的模型,实现本地的大模型翻译文献。

官方文档指导的Ollama的配置:一定要配置环境变量,否则会出现【403报错】

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/爱喝兽奶帝天荒/article/detail/923370
推荐阅读
相关标签
  

闽ICP备14008679号