当前位置:   article > 正文

【LoRa】【BLOOMZ】用peft训练bloomz保存检查点,保存和加载的权重不一致???adapter_model.bin只有4kb???

adapter_model.bin

 最近用peft的lora对bloomz做训练,参考的https://github.com/linhduongtuan/BLOOM-LORA,训练了1轮后发现,结果没有任何变化,用几个检查点做了测试结果也是没有任何变化。

我的神经病一触即发

能看到检查点中adapter_model.bin只有4kb,这明显什么都没有保存。

  1. 4.0K ./bloomz7b1-patent-full/checkpoint-2600/adapter_config.json
  2. 4.0K ./bloomz7b1-patent-full/checkpoint-2600/adapter_model.bin
  3. 31M ./bloomz7b1-patent-full/checkpoint-2600/optimizer.pt
  4. 16K ./bloomz7b1-patent-full/checkpoint-2600/rng_state.pth
  5. 4.0K ./bloomz7b1-patent-full/checkpoint-2600/scheduler.pt
  6. 20K ./bloomz7b1-patent-full/checkpoint-2600/trainer_state.json
  7. 4.0K ./bloomz7b1-patent-full/checkpoint-2600/training_args.bin

狂找原因

有两篇帖子能作为参考

https://github.com/huggingface/peft/issues/503model.save_pretrained() produced a corrupted adapter_model.bin (only 443 B) with alpaca-lora · Issue #286 · huggingface/peft · GitHub

 都是解决保存和加载不一致的问题

但最终,我的解决办法是把这几行注释就可以了

  1. # old_state_dict = model.state_dict
  2. # model.state_dict = (
  3. # lambda self, *_, **__: get_peft_model_state_dict(self, old_state_dict())
  4. # ).__get__(model, type(model))

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/200244
推荐阅读
相关标签
  

闽ICP备14008679号