赞
踩
参考教程:https://github.com/InternLM/tutorial/blob/main/helloworld/hello_world.md
1.首先启动服务:
cd /root/code/InternLM
streamlit run web_demo.py --server.address 127.0.0.1 --server.port 6006
2.这个服务的端口是6006,需要将这个端口映射到本地才能访问:
(由于服务器通常只暴露了用于安全远程登录的 SSH(Secure Shell)端口,如果需要访问服务器上运行的其他服务(如 web 应用)的特定端口,需要一种特殊的设置。我们可以通过使用SSH隧道的方法,将服务器上的这些特定端口映射到本地计算机的端口。)
在本地生成ssh key,将公钥添加到InternStudio 控制台,然后在本地终端ssh到远程开发机:
6006 是在服务器中打开的端口,而 33090 是根据开发机的端口进行更改
ssh -CNg -L 6006:127.0.0.1:6006 root@ssh.intern-ai.org.cn -p 33090
3.在浏览器打开 http://127.0.0.1:6006 页面后,模型才会加载
环境和模型都与上一个demo相同,需要额外进行lagent的安装:
cd /root/code
git clone https://gitee.com/internlm/lagent.git
cd /root/code/lagent
git checkout 511b03889010c4811b1701abb153e02b8e94fb5e # 尽量保证和教程commit版本一致
pip install -e . # 源码安装
然后修改/root/code/lagent/examples/react_web_demo.py代码中的内容,使用下面的命令启动服务:
streamlit run /root/code/lagent/examples/react_web_demo.py --server.address 127.0.0.1 --server.port 6006
后面与上一节的web demo步骤相同,运行demo如下:
图文创作
多模态对话
熟悉 hugging face 下载功能,使用 huggingface_hub python 包,下载 InternLM-20B 的 config.json 文件到本地(需截图下载过程):
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。