赞
踩
大语言模型对于长文本数据的处理需求日益凸显,尤其在长文档分析、多轮对话、故事创作等场景下。在这些情况下,模型需要处理的文本的长度常常超出预定义上下文窗口大小。为了支持长文本处理,多家机构均已推出面向具有超长上下文窗口的大语言模型或API。那么,给定一个预训练后的大预言模型,如何有效的扩展其上下文文窗口以应对更长的文本数据成为当前学术界的研究焦点。目前,增强大语言模型长文本建模能力的研究主要集中在两个方向:一是扩展位置编码,二是调整上下文窗口。
对于一个原始上下文窗口为 本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/906285
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。