赞
踩
前言:
上海人工智能实验室搭建的实验平台功能特别齐全,感觉可以替代谷歌的Colab作为大模型的实验平台了。(除了后台离开一段时间后会自动bash,导致之前配置好的环境丢失。实验平台:https://studio.intern-ai.org.cn/
实验教程:https://github.com/InternLM/tutorial/blob/main/helloworld/hello_world.md
pip install -U huggingface_hub
internlm-7b
config.json
config.json
模型分析与输出回答时,最高显存占用为80.64%
模型后台端:
可以看到模型回答用户问题时自带的一些prompt。
网页端:
利用python代码解决简单的方程问题,效果不错。
同上
模型加载完成后的显存占用为18538MiB(45.27%)
加载模型进行分析时(init
步骤)的显存占用为29114MiB(71.1%),GPU占用为39%
可以观察得出,模型的思维链是先生成文本再寻找插图图片的位置,并且插入的图片能做到符合上下文内容
加载图片资源
在输出出现胡言乱语与迭代错误后,能做到到达输出上限后自动停止。这里是想用word2vec向我解释,但不知为何之后陷入循环了。
搜索得知图片直接来自于互联网,不是模型多模态生成的,这确保了图片的专业性和准确性,但是也带来了一定的版权风险。
这张图片互联网上没有搜索得到,推测可能是训练数据集中来自某些科研机构或者大学的教学PPT。
以下是网页端的输出结果:
同上
对于专业知识的图片分析错误
再一次在想举例向我解释图片时陷入循环。
纠正后能及时改进
对于推理和思考性问题回答反应不佳。
对于基于人文和生活知识的图片回答表现很好,也具有一定的推理能力。
上述两个模型对于基础知识、人文知识的回答表现较好,对专业知识的回答表现较弱。图文并茂生成的图片直接复制于互联网与某些大学或者研究机构的课件(猜测),因此生成的图文并茂推文若用于商用的话可能会存在版权问题。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。