赞
踩
以chatglm3-6b为例
如何快速下载huggingface大模型:https://padeoe.com/huggingface-large-models-downloader/
国内镜像网站设置:export HF_ENDPOINT="https://hf-mirror.com"
安装huggingface-cli
pip install -U huggingface_hub
安装huggingface上的模型:
huggingface-cli download --resume-download THUDM/chatglm3-6b --local-dir download/chatglm3-6b --local-dir-use-symlinks False
以llama3为例,申请信息不要填国内的,会被reject。
huggingface文档
加载模型:llama3_path
是本地的模型存储路径。
from transformers import AutoTokenizer, AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained(llama3_path)
tokenizer = AutoTokenizer.from_pretrained(llama3_path)
以text_generation为例。
huggingface GenerationConfig参数介绍
参考控制生成的文本多样性的参数。它控制生成的文本的多样性和翻译的目标序列的近似程度之间的权衡。当penalty_alpha值越大时,模型生成的文本变得更加多样,生成的文本与目标序列的近似程度可能会变得更加差。反之,当penalty_alpha值越小时,模型生成的文本变得更加相似于目标序列,多样性可能会变得更加差。
控制模型输出多样性的
参考 top_p控制生成的文本中,每个词选择的概率必须在最高概率的前 p 的词中,而不是选择来自整个词汇表中的任何词。与 top_p 类似,但是typical_p限制的是生成的文本中每个词概率的分布,而不是概率的确切值。与 top_p 不同的是,typical_p 可以产生更长的文本序列,因为它允许更多的词汇选择。使用这些参数可以限制生成的文本,从而产生更有意义的,更符合目标的生成文本。
from_pretrained
初始化的时候添加参数add_prefix_space=True
。参考 当设置为 True 时,它会将模型中的 logits 规范化为概率分布,以便于计算损失和生成样本。在某些情况下,如果 logits 不规范化,可能会出现训练困难或生成不稳定的问题,因此可以将 renormalize_logits 设置为 True 来解决这些问题。需要注意的是,将 renormalize_logits 设置为 True 会对生成的样本产生一定的影响。具体来说,它会使生成的样本更加平滑,这意味着它们可能会失去一些原始模型的细节。因此,在某些情况下,可以将 renormalize_logits 设置为 False,以便生成更加准确和详细的样本。但是,这也可能导致训练问题和不稳定的生成结果,需要在使用时谨慎权衡。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。