赞
踩
iclr 2024 spotlight reviewer 评分 6668
2.2 与LLMs的比较。
ViT模型的准确性在合并冻结的LLaMA Transformer块后持续提高
作者认为:“如果把加了LLM的提升都归结于"LLM包含了可以泛化的知识",其实比较偷懒而且不一定正确”
参考内容:[ICLR 2024 (Spotlight)] LLM里的Transformer还可以这么用? - 知乎 【作者自己的sharing】
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。