当前位置:   article > 正文

GPTs的平替

GPTs的平替

随着openAI的第一次开发者大会的召开,一个划时代的产品就此推出,OpenAI的首届开发者大会带来了许多令人振奋的消息,尤其是GPT-4 Turbo和GPTs的发布。这些新特性将推动自然语言处理技术的发展,帮助开发人员构建更强大和个性化的应用。随着GPT Store的推出,用户将能够轻松获得各种自定义GPT功能,从而提高他们的工作效率和生活质量。同时,价格的降低将使更多人能够享受到这一强大技术的益处。这标志着自然语言处理领域迈出了新的一步,为未来的技术发展铺平了道路。其中最主要的是发布了基于GPT4-TUrbo的GPTs,开发人员可以通过API自建APP并发布到GPT Store

GPTs:个性化ChatGPT的新时代

最引人注目的是,OpenAI宣布了GPTs功能,这使每个用户都能够创建自己的个性化ChatGPT,无需编程知识。GPTs允许用户通过自然语言与模型进行互动,定制自己的专属技能。用户可以构建具有特定功能的GPT,从回答特定问题到执行特定任务,GPTs提供了无限的可能性。

GPT Store:应用商店的未来

OpenAI还计划在不久的将来推出GPT Store,用户可以在这里使用其他用户创建的GPT,也可以通过自己设计的GPT来赚取收益。这为GPT模型构建了一个生态系统,类似于苹果的应用商店,用户可以轻松获取各种GPT功能,从而提高他们的工作效率和生活质量。

自定义GPT的构建过程

在发布会上,Altman展示了如何创建一个自定义GPT,以及它的潜在应用。他通过几个简单的自然语言步骤,构建了一个名为“创业导师GPT”的模型,用于回答创业问题。这一演示展示了创建自定义GPT的过程的简单性和强大性。

Assistants API:构建智能应用的利器

OpenAI还引入了Assistants API,这是一个强大的工具,可以帮助开发人员构建智能应用。该API允许开发人员使用模型和工具执行各种操作,包括代码解释、检索信息和函数调用。这一工具的核心功能是能够调用模型和工具执行代码解释、检索、函数调用等操作,从而提高开发效率。

随后微软也发布了自家的copilot 应用,并可以直接通过网页来访问

95626c3b3216df9cd82abba23c8fd74f.png

可惜的是国内如果要体验上述的划时代产品,需要魔法,而且还不一定能成功,虽然OPENAI不再open,总会有一些开源平替,今天就给大家介绍两款类GPTs的开源应用

第一种就是Langchain的开发者发布的OpenGPTSGitHub - langchain-ai/opengpts,不知道langchain的可以参考我之前的文章用Langchain构建一个阅读助手

这是一项开源工作,旨在创造与 OpenAI 的 GPT 和助手 API 类似的体验。它以 LangChain、LangServe 和 LangSmith 为基础。OpenGPTs 可让你进行更多的控制,允许你配置:

使用的 LLM(从 LangChain 提供的 60 多种 LLM 中选择一种)

使用的提示(使用 LangSmith 调试这些提示)

你提供给它的工具(从 LangChain 的 100 多种工具中选择,或轻松编写你自己的工具)

使用的矢量数据库(从LangChain的60多个矢量数据库集成中选择)

使用的检索算法

使用的聊天记录数据库

f6cbc6132ce33d65b7166d3ad45c332f.png

43cdb1bea451a3ba615c48c8d5b05b7b.png


整个架构前后端分离,构建起来也比较简单

首先安装所需要的依赖包,requirements.txt,然后启动后台服务

langchain serve --port=8100

然后通过yarn启动前端服务

cd frontend

yarn

yarn dev

另外一种就是Modelscope推出的ModelScopeGPT,在线体验地址:

ModelScopeGPT · 创空间,ModelScopeGPT(魔搭GPT), 是一个大小模型协同的agent系统。我具备多种能力,可以通过大模型做中枢(controller),来控制魔搭社区的各种多模态模型api回复用户的问题。除此之外,我还集成了知识库检索引擎,可以解答用户在魔搭社区使用模型遇到的问题以及模型知识相关问答。

19d3a0d2bd92ec7dac26e6ed8e54dfa7.png

2e646e3c494fd9992ec378ad1fc24c2c.png

整体来说,效果还是有的,而且还是多模态的,当然也可以本地部署

  1. import os
  2. from modelscope.utils.config import Config
  3. from modelscope_agent.llm import LLMFactory
  4. from modelscope_agent.agent import AgentExecutor
  5. from modelscope_agent.prompt import MSPromptGenerator
  6. # get cfg from file, refer the example in config folder
  7. model_cfg_file = os.getenv('MODEL_CONFIG_FILE', 'config/cfg_model_template.json')
  8. model_cfg = Config.from_file(model_cfg_file)
  9. tool_cfg_file = os.getenv('TOOL_CONFIG_FILE', 'config/cfg_tool_template.json')
  10. tool_cfg = Config.from_file(tool_cfg_file)
  11. # instantiation LLM
  12. model_name = 'modelscope-agent-7b'
  13. llm = LLMFactory.build_llm(model_name, model_cfg)
  14. # prompt generator
  15. prompt_generator = MSPromptGenerator()
  16. # instantiation agent
  17. agent = AgentExecutor(llm, tool_cfg, prompt_generator=prompt_generator)
  18. # Single-step tool-use
  19. agent.run('使用地址识别模型,从下面的地址中找到省市区等元素,地址:浙江杭州市江干区九堡镇三村村一区', remote=True)
  20. # Multi-step tool-use
  21. agent.reset()
  22. agent.run('写一篇关于Vision Pro VR眼镜的20字宣传文案,并用女声读出来,同时生成个视频看看', remote=True)

有兴趣的小伙伴可以自行尝试一下,喜欢的朋友点点关注

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/568411
推荐阅读
相关标签
  

闽ICP备14008679号