当前位置:   article > 正文

huggingface generate函数简介_model.generate

model.generate

目录

一、generate函数的常见参数 

1. input_ids

2. max_length

3. min_length

4. do_sample

5. temperature

6. top_k

7. top_p

8. num_return_sequences

9. repetition_penalty

10. early_stopping

11. pad_token_id

12. eos_token_id

13. no_repeat_ngram_size

14. encoder_no_repeat_ngram_size

15. attention_mask

16. decoder_start_token_id

17. use_cache

18. num_beams

19. bad_words_ids

20. length_penalty

21. forced_bos_token_id

22. forced_eos_token_id

23. remove_invalid_values

24. logit_bias

 二、generate实际使用的参数

2.1、如果一些参数不给定,model.generate用的是哪些参数呢?

2.2、generate 怎么防止类似eos终止符过早出现呢?

1. 调整max_length和min_length

2. 使用eos_token_id和pad_token_id参数

3. 调整length_penalty

4. 使用stop_token参数

5. 清晰的任务指示(Prompt Engineering)

6. 微调模型

 2.3、generate 怎么对eos过早出现进行惩罚(和上面问题类似)?

1. 使用logit_bias参数调整EOS的生成概率

2. 调整length_penalty

3. 微调模型时添加惩罚

4. 调整终止条件

transformers 库中的 .generate() 函数是一个非常强大的功能,它是用于自动生成文本的。这个函数的参数很多,允许你细致地控制生成过程。下面,简单介绍一些常用的参数及其技术背景。

一、generate函数的常见参数 

1. input_ids

  • 描述:这是传递给模型的输入数据的编码表示,通常是一系列经过编码的token IDs。它是生成文本的起点。
  • 技术背景:在NLP中,我们通常需要将文本转换成模型能理解的数字形式,input_ids就是这个转换过程的结果。

2. max_length

  • 描述:控制生成文本的最大长度。包括输入token的数量在内。
  • 技术背景:在文本生成过程中,限制输出长度是很重要的,以避免生成过长的文本,这会导致生成质量下降或者资源消耗增加。

3. min_length

  • 描述:设置生成文本的最小长度,确保生成的文本不会太短。
  • 技术背景:在某些情况下,我们需要保证输出文本达到一定的长度,增加信息的丰富性。

4. do_sample

  • 描述:是否在生成文本时使用采样策略。如果设置为False,则使用贪心策略进行解码。
  • 技术背景:贪心策略总是选择概率最高的下一个token,这可能导致生成的文本过于确定且缺乏多样性。采样策略引入随机性,使生成的文本更加多样化。

5. temperature

  • 描述:用于调整生成过程中的随机性程度。数值越大,生成的文本越随机。
  • 技术背景:温度调整是调控softmax输出分布的一种方法,可以平滑或者加剧分布中的差异,影响选择下一个token的随机性。

6. top_k

  • 描述:在采样策略中,仅考虑概率最高的前k个token进行随机选择。
  • 技术背景:这是一种称为Top-K采样的方法,能够减少生成文本中的低概率词汇,提高文本的连贯性和质量。

7. top_p

  • 描述:适用于另一种采样策略,保留累计概率达到p的最小集合,然后从这个集合中进行选择。
  • 技术背景:这被称为nucleus采样或Top-p采样,它比Top-K采样更为动态,能够根据不同情况调整采样集合的大小。

8. num_return_sequences

  • 描述:设置生成几个文本。即使输入只有一个,也可以生成多个不同的输出。
  • 技术背景:这个参数允许模型在单次调用中输出多个独立的文本序列,有助于生成文本的多样性和创造力。

9. repetition_penalty

  • 描述:用来防止文本重复的参数,使得模型在选择已经出现的词时变得更加谨慎。
  • 技术背景:为了避免生成的文本过于重复,通过调节这个参数,可以降低重复词汇的选择概率,提高文本的多样性和可读性。

10. early_stopping

  • 描述:是否在所有序列达到eos_token_id时停止生成。
  • 技术背景:这个参数允许提前结束生成过程,当模型生成了结束符(如句点或其他特定符号)时,可以停止继续生成,节省资源。

11. pad_token_id

  • 描述:定义用于填充的token ID。在文本生成中,如果生成的文本短于max_length,这个ID将被用来填充生成文本。
  • 技术背景:在处理不等长的序列时,填充操作确保了所有序列具有相同的长度,便于模型处理。

12. eos_token_id

  • 描述:定义结束序列的token ID。当模型生成了这个ID对应的token时,将停止生成进一步的token。
  • 技术背景:特定的结束标记有助于明确指示文本序列的合理结束,提高生成文本的逻辑性和完整性。

13. no_repeat_ngram_size

  • 描述:禁止生成中出现长度为此值的重复n-gram。这可以防止生成的文本中出现重复的短语。
  • 技术背景:通过限制n-gram的重复出现,可以显著提高文本的多样性和新颖性,避免无聊或重复的内容生成。

14. encoder_no_repeat_ngram_size

  • 描述:这个参数用于在encoder-decoder模型中,防止在encoder部分出现重复的n-grams。
  • 技术背景:主要用于改善带有编码器的模型的输出质量,例如在翻译或摘要任务中防止重复。

15. attention_mask

  • 描述:一个指示哪些位置可以被模型注意到的二进制(0或1)序列。这可以用来避免模型注意到某些特定的token,比如填充token。
  • 技术背景:在注意力机制中,通过为特定的输入位置设置遮罩,可以动态调整模型的焦点,提高模型的效率和效果。

16. decoder_start_token_id

  • 描述:在使用序列到序列(Seq2Seq)的模型时,定义开始解码的第一个token ID。
  • 技术背景:对于某些任务,如翻译,提供一个起始符号可以帮助模型确定生成的目标语言起始结构。

17. use_cache

  • 描述:是否使用模型的past key/values来加速生成。对于某些模型,这可以显著提高生成的速度。
  • 技术背景:在生成序列的过程中,通过缓存先前计算的结果,可以减少冗余计算,提高生成效率。

18. num_beams

  • 描述:使用束搜索(Beam Search)策略时,束的大小。提高这个值可以提高文本的质量,但也会增加计算量。
  • 技术背景:束搜索是一种平衡生成速度和质量的技术,它在每一步考虑多个最有可能的选项来尽可能找到最佳的输出序列。

19. bad_words_ids

  • 描述:一个禁止生成的单词ID列表。这可以防止生成不希望出现的词或短语。
  • 技术背景:在特定场景下,过滤掉不恰当或不相关的词汇对于保持生成内容的质量和适当性非常重要。

20. length_penalty

  • 描述:在使用束搜索(beam search)策略时,该参数用于调节长度对评分的影响,鼓励模型生成更长或更短的序列。
  • 技术背景:在些情况下,生成的文本长度可能会对整体效果有影响。通过调整长度惩罚,可以微调生成文本的平均长度。

21. forced_bos_token_id

  • 描述:强制将特定的token ID作为生成文本的开始,即使模型有其他的开始信号。
  • 技术背景:在某些特定的任务或场景中,可能需要确保生成的文本始终以某个特定的词或短语开始,此时使用该参数来实现。

22. forced_eos_token_id

  • 描述:允许指定在生成的文本末尾强制出现的token ID,即使模型还没有达到自然结束。
  • 技术背景:同forced_bos_token_id,这可以用于确保生成的文本以某种特定的方式结束。

23. remove_invalid_values

  • 描述:是否在生成过程中移除无效的值,例如那些导致模型输出不合法的token。
  • 技术背景:有助于提高文本的质量和合理性,特别是对于一些具有特殊格式要求的生成任务。

24. logit_bias

  • 描述:在生成token时,对特定token的分数进行手动调整,这是一个字典类型的参数,可以用来提升或降低某些token被选中的概率。
  • 技术背景:在生成过程中,有时需要控制特定词汇的出现概率,通过调整它们的初始分数来影响最终结果。

这些参数提供了generate()函数额外的控制能力,允许用户根据自己的需要定制文本生成的行为。然而,重要的是要记住,并非所有的参数在所有模型中都可用或者有意义,应该根据使用的具体模型和任务要求来选择合适的参数

 二、generate实际使用的参数

通常情况下,调用 model.generate() 时最常用的几个参数包括:

  1. input_ids

    • 这是生成序列的起始输入,通常是一个包含起始标记的张量。
    • 例如,如果进行机器翻译任务,input_ids 可以是源语言的编码序列。
  2. attention_mask

    • 指示输入序列中有效标记的掩码张量。
    • 如果没有提供,则会自动构建,将所有标记视为有效。
  3. max_length

    • 控制生成序列的最大长度。
    • 这是为了避免生成过长的序列,导致计算资源消耗过多。
  4. num_beams

    • 设置 Beam Search 解码器使用的束宽度。
    • 较大的 num_beams 值可以提高解码质量,但也会增加计算开销。
  5. early_stopping

    • 指示是否启用提前停止机制,当所有束搜索候选都生成终止标记时提前终止。
  6. do_sample

    • 指示是否使用采样策略进行生成,True表示采用采样,False表示始终选择概率最大的标记。
  7. top_k 和 top_p

    • 如果启用采样,这两个参数用于控制采样过程,调节生成结果的多样性。
  8. num_return_sequences

    • 指定要并行生成的序列数量,如果大于1会返回多个候选序列。

除了这些常用参数外,还有一些其他参数用于特定场景,如:

  • pad_token_id - 指定填充标记的 ID
  • bos_token_id - 指定序列起始标记的 ID
  • eos_token_id - 指定序列终止标记的 ID
  • use_cache - 指示是否使用缓存键值对,以加速Transformer解码

通常,只需要根据任务需求设置 input_idsmax_lengthnum_beams 和生成策略相关参数(do_sampletop_ktop_p)即可。其他参数可以使用默认值,除非有特殊的需求。合理设置这些参数对于获得良好的生成效果非常重要。

2.1、如果一些参数不给定,model.generate用的是哪些参数呢?

那么这些默认参数的值是如何确定的呢?答案主要有以下几个方面:

        1. 基于任务的启发式设置

一些默认参数值是基于特定任务的经验和最佳实践设置的。例如,对于机器翻译任务,num_beams默认值通常设置为4或5,这是根据束搜索算法在该任务上的典型表现而定的。同理,max_length的默认值也会根据不同任务而有所不同。

        2. 预训练模型的设置

对于使用Transformer等预训练语言模型进行生成,一些默认参数值会从预训练模型的配置中继承。比如pad_token_idbos_token_id等特殊标记ID的默认值就来自于预训练模型词表的设置

        3. 算法默认行为

还有一些参数的默认值反映了生成算法的默认行为。例如,do_sample默认为False,表示默认使用贪婪搜索而不是采样;top_ktop_p的默认值通常设置为None,表示不对词汇进行过滤。

        4. 保守且高效的设置

在某些情况下,默认值被设置为保守且高效的选项,以避免生成过多或过长的序列。例如,num_return_sequences默认为1,只生成单个序列;early_stopping:以尽早停止生成。

        5. 人为设定

最后,还有一些默认值是由库开发者人为设定的,并非是自动推导的。比如num_beams的默认值为1,即默认为贪婪搜索。

总的来说,默认参数值的设计目标是:在不提供任何参数的情况下,能够生成合理且高效的序列;同时也允许用户根据具体需求对这些参数进行覆盖和调整。合理设置参数对于获得理想的生成效果至关重要。

2.2、generate 怎么防止类似eos终止符过早出现呢?

在使用GPT或类似的生成模型进行文本生成时,确实可能会遇到生成过程中EOS(End Of Sentence)标记或其他终止符过早出现的问题,导致生成的文本比预期更短。有几种方法可以尝试减少这种情况的发生:

1. 调整max_lengthmin_length

确保为.generate()方法设置了合理的max_length(最大生成长度)和min_length(最小生成长度),这样可以在一定程度上防止生成的文本过短。通过明确指定一个适当的min_length,可以使模型在达到这个长度之前不生成EOS标记。

response = model.generate(input_ids, max_length=100, min_length=40, ...)

2. 使用eos_token_idpad_token_id参数

如果知道EOS标记的token ID,可以尝试在生成时不包含该EOS标记的ID,或者通过使用pad_token_id替换掉eos_token_id,让模型知道还不应该结束。

3. 调整length_penalty

length_penalty参数用于调节生成文本的长度偏好。数值大于1会鼓励模型生成更长的序列,可能有助于减少EOS标记过早出现的情况。

response = model.generate(input_ids, max_length=100, length_penalty=2.0, ...)

4. 使用stop_token参数

对于某些模型和transformers的版本,可以通过设置stop_token参数来指定一个自定义的终止符,如果我们的模型/库版本支持这个参数,我们可以选择不将EOS设置为终止符。

5. 清晰的任务指示(Prompt Engineering)

对模型的输入进行精细调整也很重要。确保我们的输入提示(prompt)清晰地表达了我们的生成需求,有时候通过优化输入提示,可以减少EOS标记过早出现的问题。

6. 微调模型

如果上述方法都不能解决问题,可能需要考虑在特定任务上微调模型。通过训练,可以让模型更好地理解在何时结束序列是合适的。这通常需要一定量的标注数据和计算资源。

每种方法都有其适用场景,可能需要一些尝试和错误调整来找到最适合我们特定需求的解决方案。

 2.3、generate 怎么对eos过早出现进行惩罚(和上面问题类似)?

为了解决生成过程中EOS(终止符)过早出现的问题,一种方法是通过调整模型的行为来"惩罚"生成EOS,即使得生成EOS的代价变高,从而鼓励模型生成更长的序列。在transformers库的.generate()方法中,没有直接名为"EOS过早惩罚"的参数,但是可以利用其他参数间接达到这个目的。以下是几种可能的策略:

1. 使用logit_bias参数调整EOS的生成概率

logit_bias参数允许我们为特定的token IDs设置一个偏置值,从而影响它们被生成的概率。通过给EOS token设置一个负的偏置值,可以降低它被早期选择的可能性。请注意,这个参数可能不在所有版本的transformers库中可用,具体取决于你使用的版本以及模型类型。

  1. from transformers import AutoTokenizer, AutoModelForCausalLM
  2. tokenizer = AutoTokenizer.from_pretrained("gpt2")
  3. model = AutoModelForCausalLM.from_pretrained("gpt2")
  4. input_ids = tokenizer("Example input text", return_tensors="pt").input_ids
  5. eos_token_id = tokenizer.eos_token_id
  6. # 创建 logit_bias 字典,给EOS token ID一个负偏置
  7. logit_bias = {eos_token_id: -100}
  8. # 生成文本,应用logit_bias
  9. generated_ids = model.generate(input_ids, logit_bias=logit_bias, max_length=50)
  10. print(tokenizer.decode(generated_ids[0], skip_special_tokens=True))

2. 调整length_penalty

虽然length_penalty参数的主要目的是调整文本长度的偏好,通过设置一个大于1的值,可以间接"惩罚"过早结束文本的行为,因为模型会受到鼓励产生更长的文本。

  1. generated_ids = model.generate(input_ids, max_length=50, length_penalty=2.0)
  2. print(tokenizer.decode(generated_ids[0], skip_special_tokens=True))

3. 微调模型时添加惩罚

如果我们有能力和资源进行模型的微调,可以在损失函数中显式地添加一个惩罚项,使得在序列中过早生成EOS token的成本变高。这要求你有深入的模型训练知识和一定的数据集来进行微调。

4. 调整终止条件

在一些自定义生成循环中,可以通过修改终止条件来实现这一目标,尽管.generate()方法不直接支持这种操作,但如果我们可以通过手动实现生成循环的方式来生成文本,就可以在确定是否达到终止条件时加入额外的逻辑。

它们各有优缺点,并且可能需要根据具体的使用场景进行调整和测试。对于大多数用户来说,尝试调整logit_bias(如果可用)和length_penalty可能是最直接和最简单的方式。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/人工智能uu/article/detail/973568
推荐阅读
相关标签
  

闽ICP备14008679号