当前位置:   article > 正文

大模型中 .safetensors 文件、.ckpt文件和.pth以及.bin文件区别、加载和保存以及转换方式_safetensors文件

safetensors文件

目录

模型格式介绍

加载以及保存

- 加载.safetensors文件:

- 保存/加载.pth文件:

- 保存/加载.ckpt文件:

- 处理.bin文件:

模型之间的互相转换

pytorch-lightning 和 pytorch

ckpt和safetensors


模型格式介绍

在大型深度学习模型的上下文中,.safetensors.bin 和 .pth ckpt 文件的用途和区别如下:

  1. .safetensors 文件

    • 这是由 Hugging Face 推出的一种新型安全模型存储格式,特别关注模型安全性、隐私保护和快速加载。
    • 它仅包含模型的权重参数,而不包括执行代码,这样可以减少模型文件大小,提高加载速度。
    • 加载方式:使用 Hugging Face 提供的相关API来加载 .safetensors 文件,例如 safetensors.torch.load_file() 函数。
  2. ckpt文件

    • ckpt 文件是 PyTorch Lightning 框架采用的模型存储格式,它不仅包含了模型参数,还包括优化器状态以及可能的训练元数据信息,使得用户可以无缝地恢复训练或执行推理。
  3. .bin 文件

    • 通常是一种通用的二进制格式文件,它可以用来存储任意类型的数据。
    • 在机器学习领域,.bin 文件有时用于存储模型权重或其他二进制数据,但并不特指PyTorch的官方标准格式。
    • 对于PyTorch而言,如果用户自己选择将模型权重以二进制格式保存,可能会使用 .bin 扩展名,加载时需要自定义逻辑读取和应用这些权重到模型结构中。
  4. .pth 文件

    • 是 PyTorch 中用于保存模型状态的标准格式。
    • 主要用于保存模型的 state_dict,包含了模型的所有可学习参数,或者整个模型(包括结构和参数)。
    • 加载方式:使用 PyTorch 的 torch.load() 函数直接加载 .pth 文件,并通过调用 model.load_state_dict() 将加载的字典应用于模型实例。

总结起来:

  • .safetensors 侧重于安全性和效率,适合于那些希望快速部署且对安全有较高要求的场景,尤其在Hugging Face生态中。
  • .ckpt 文件是 PyTorch Lightning 框架采用的模型存储格式,它不仅包含了模型参数,还包括优化器状态以及可能的训练元数据信息,使得用户可以无缝地恢复训练或执行推理。
  • .bin 文件不是标准化的模型保存格式,但在某些情况下可用于存储原始二进制权重数据,加载时需额外处理。
  • .pth 是PyTorch的标准模型保存格式,方便模型的持久化和复用,支持完整模型结构和参数的保存与恢复。

加载以及保存

加载.safetensors文件

  1. # 用SDXL举例
  2. import torch
  3. from diffusers import StableDiffusionXLPipeline, UNet2DConditionModel, EulerDiscreteScheduler
  4. from huggingface_hub import hf_hub_download
  5. from safetensors.torch import load_file
  6. base = "stabilityai/stable-diffusion-xl-base-1.0"
  7. repo = "ByteDance/SDXL-Lightning"
  8. ckpt = "/home/bino/svul/models/sdxl/sdxl_lightning_2step_unet.safetensors" # Use the correct ckpt for your step setting!
  9. # Load model.
  10. unet = UNet2DConditionModel.from_config(base, subfolder="unet").to("cuda", torch.float16)
  11. unet.load_state_dict(load_file(ckpt, device="cuda"))
  12. # unet.load_state_dict(load_file(hf_hub_download(repo, ckpt), device="cuda"))
  13. pipe = StableDiffusionXLPipeline.from_pretrained(base, unet=unet, torch_dtype=torch.float16, variant="fp16").to("cuda")
  14. # Ensure sampler uses "trailing" timesteps.
  15. pipe.scheduler = EulerDiscreteScheduler.from_config(pipe.scheduler.config, timestep_spacing="trailing")
  16. # Ensure using the same inference steps as the loaded model and CFG set to 0.
  17. pipe("A girl smiling", num_inference_steps=4, guidance_scale=0).images[0].save("output.png")

保存/加载.pth文件

  1. # 保存模型状态字典
  2. torch.save(model.state_dict(), "model.pth")
  3. # 加载模型状态字典到已有模型结构中
  4. model = TheModelClass(*args, **kwargs)
  5. model.load_state_dict(torch.load("model.pth"))
  6. # 或者保存整个模型,包括结构
  7. torch.save(model, "model.pth")
  8. # 加载整个模型
  9. model = torch.load("model.pth", map_location=device)

保存/加载.ckpt文件

  1. import pytorch_lightning as pl
  2. # 定义一个 PyTorch Lightning 训练模块
  3. class MyLightningModel(pl.LightningModule):
  4. def __init__(self):
  5. super().__init__()
  6. self.linear_layer = nn.Linear(10, 1)
  7. self.loss_function = nn.MSELoss()
  8. def forward(self, inputs):
  9. return self.linear_layer(inputs)
  10. def training_step(self, batch, batch_idx):
  11. features, targets = batch
  12. predictions = self(features)
  13. loss = self.loss_function(predictions, targets)
  14. self.log('train_loss', loss)
  15. return loss
  16. # 初始化 PyTorch Lightning 模型
  17. lightning_model = MyLightningModel()
  18. # 配置 ModelCheckpoint 回调以定期保存最佳模型至 .ckpt 文件
  19. checkpoint_callback = pl.callbacks.ModelCheckpoint(
  20. monitor='val_loss',
  21. filename='best-model-{epoch:02d}-{val_loss:.2f}',
  22. save_top_k=3,
  23. mode='min'
  24. )
  25. # 创建训练器并启动模型训练
  26. trainer = pl.Trainer(
  27. callbacks=[checkpoint_callback],
  28. max_epochs=10
  29. )
  30. trainer.fit(lightning_model)
  31. # 从 .ckpt 文件加载最优模型权重
  32. best_model = MyLightningModel.load_from_checkpoint(checkpoint_path='best-model.ckpt')
  33. # 使用加载的 .ckpt 文件中的模型进行预测
  34. sample_input = torch.randn(1, 10)
  35. predicted_output = best_model(sample_input)
  36. print(predicted_output)

在此示例中,我们首先定义了一个 PyTorch Lightning 模块,该模块集成了模型训练的逻辑。然后,我们配置了 ModelCheckpoint 回调函数,在训练过程中按照验证损失自动保存最佳模型至 .ckpt 文件。接着,我们展示了如何加载 .ckpt 文件中的最优模型权重,并利用加载后的模型对随机输入数据进行预测,同样输出预测结果。值得注意的是,由于 .ckpt 文件完整记录了训练状态,它在实际应用中常被用于模型微调和进一步训练。

处理.bin文件

如果.bin文件是纯二进制权重文件,加载时需要知道模型结构并且手动将权重加载到对应的层中,例如:

  1. # 假设已经从.bin文件中读取到了模型权重数据
  2. weights_data = load_binary_weights("weights.bin")
  3. # 手动初始化模型并加载权重
  4. model = TheModelClass(*args, **kwargs)
  5. for name, param in model.named_parameters():
  6. if name in weights_mapping: # 需要预先知道权重映射关系
  7. param.data.copy_(weights_data[weights_mapping[name]])

模型之间的互相转换

pytorch-lightning 和 pytorch

由于 PyTorch Lightning 模型本身就是 PyTorch 模型,因此不存在严格意义上的转换过程。你可以直接通过 LightningModule 中定义的神经网络层来进行保存和加载,就像普通的 PyTorch 模型一样:

  1. # 假设 model 是一个 PyTorch Lightning 模型实例
  2. model = MyLightningModel()
  3. # 保存模型权重
  4. torch.save(model.state_dict(), 'lightning_model.pth')
  5. # 加载到一个新的 PyTorch 模型实例
  6. new_model = MyLightningModel()
  7. new_model.load_state_dict(torch.load('lightning_model.pth'))
  8. # 或者加载到一个普通的 PyTorch Module 实例(假设结构一致)
  9. plain_pytorch_model = MyPlainPytorchModel()
  10. plain_pytorch_model.load_state_dict(torch.load('lightning_model.pth'))

ckpt和safetensors

转换后的模型在stable-diffussion-webui中使用过没有问题,不知道有没有错误,或者没转换成功

  1. import torch
  2. import os
  3. import safetensors
  4. from typing import Dict, List, Optional, Set, Tuple
  5. from safetensors.torch import _find_shared_tensors, _is_complete, load_file, save_file
  6. def ckpt2safetensors():
  7. loaded = torch.load('v1-5-pruned-emaonly.ckpt')
  8. if "state_dict" in loaded:
  9. loaded = loaded["state_dict"]
  10. safetensors.torch.save_file(loaded, 'v1-5-pruned-emaonly.safetensors')
  11. def st2ckpt():
  12. # 加载 .safetensors 文件
  13. data = safetensors.torch.load_file('v1-5-pruned-emaonly.safetensors.bk')
  14. data["state_dict"] = data
  15. # 将数据保存为 .ckpt 文件
  16. torch.save(data, os.path.splitext('v1-5-pruned-emaonly.safetensors')[0] + '.ckpt')
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/489299
推荐阅读
相关标签
  

闽ICP备14008679号