当前位置:   article > 正文

大模型微调 踩坑个人记录:_微调loss为0

微调loss为0

一、报错信息 python -m bitsandbytes

问题1:bitsandbytes 只支持linux,windows下版本过低不支持。

        解决方法:改到linux服务器下运行。

问题2:gcc动态库版本过低:OSError: /lib64/libstdc++.so.6: version `GLIBCXX_3.4.21' not found

        解决办法:曙光服务器加载module来使用新版gcc动态库

        module load /public/software/modules/compiler/gcc/10.3.0

问题3:cuda版本与bitsandbytes版本不匹配

        解决方法1:降低bitsandbytes版本

        pip uninstall bitsandbytes

        pip install bitsandbytes-cuda117

        报错:AttributeError: module 'bitsandbytes.nn' has no attribute 'Linear8bitLt'。需要更高版本的bitsandbytes。

        解决方法2:覆盖cuda版本,兼容高版本bitsandbytes。

        export BNB_CUDA_VERSION=117

        export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda-11.7

二、chatglm2/3,lora微调时loss为0。

peft版本改为0.6.0后问题解决。

三、chatglm3,lora微调后推理报各种错。

transformer版本更新为4.37.2。

peft版本改为0.7.1后解决。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Monodyee/article/detail/694871
推荐阅读
相关标签
  

闽ICP备14008679号