赞
踩
模型 | Qwen2-0.5B | Qwen2-1.5B | Qwen2-7B | Qwen2-72B |
---|---|---|---|---|
参数量 | 0.49B | 1.54B | 7.07B | 72.71B |
非嵌入参数量 | 0.35B | 1.31B | 5.98B | 70.21B |
GQA | 支持 | 支持 | 支持 | 支持 |
绑定嵌入 | 支持 | 支持 | 不支持 | 不支持 |
上下文长度 | 32K | 32K | 128K | 128K |
以上信息均来自 Ollama 网站上关于 Qwen2 模型的介绍页面。
以上文章采用 Gemini Pro 1.5 生成摘要,命令如下:
x jina r 'https://ollama.com/library/qwen2' | \
@gemini -t 0 '以大纲方式生成一份摘要,列举更多的数据 支撑,用中文'
这篇文章探讨了利用大型语言模型构建通用人工智能 (AGI) 的可能性。
核心观点:
文章结构:
数据支撑:
需要进一步探讨的问题:
中文补充:
总结:
这篇文章为利用语言模型构建 AGI 提供了一个新的思路,但同时也提出了一些需要解决的挑战。随着语言模 型技术的不断发展,相信未来会有更多相关的研究和应用出现。
以上文章采用 Gemini Pro 1.5 生成摘要,命令如下:
x jina r 'https://bmk.sh/2020/08/17/Building-AGI-Using-Language-Models/' | \
@gemini -t 0 '以大纲方式生成一份摘要,列举更多的数据支撑,用中文'
更多内容请查阅 : blog-240609
关注微信官方公众号 : oh my x
获取开源软件和 x-cmd 最新用法
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。