当前位置:   article > 正文

huggingface/transformers TFAutoModelForCausalLM 输出 embedding_automodelforcausallm.from_pretrained获取hidden_state

automodelforcausallm.from_pretrained获取hidden_states

model = TFAutoModelForCausalLM.from_pretrained(checkpoint_local, 
    output_hidden_states=True)

all_layer_hidden_states = model(input_ids=tokenized_input["input_ids"],
                                attention_mask=tokenized_input["attention_mask"]
  • 1
  • 2
  • 3
  • 4
  • 5
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/菜鸟追梦旅行/article/detail/322597
推荐阅读
相关标签
  

闽ICP备14008679号