当前位置:   article > 正文

【DA-CLIP】test.py解读,调用DA-CLIP和IRSDE模型复原计算复原图与GT图SSIM、PSNR、LPIPS

【DA-CLIP】test.py解读,调用DA-CLIP和IRSDE模型复原计算复原图与GT图SSIM、PSNR、LPIPS

文件路径daclip-uir-main/universal-image-restoration/config/daclip-sde/test.py

代码有部分修改

导包

  1. import argparse
  2. import logging
  3. import os.path
  4. import sys
  5. import time
  6. from collections import OrderedDict
  7. import torchvision.utils as tvutils
  8. import numpy as np
  9. import torch
  10. from IPython import embed
  11. import lpips
  12. import options as option
  13. from models import create_model
  14. sys.path.insert(0, "../../")
  15. import open_clip
  16. import utils as util
  17. from data import create_dataloader, create_dataset
  18. from data.util import bgr2ycbcr

注意open_clip使用的是项目里的代码,而非环境里装的那个。data、util、option同样是项目里有的包

声明

  1. #### options
  2. parser = argparse.ArgumentParser()
  3. parser.add_argument("-opt", type=str, default='options/test.yml', help="Path to options YMAL file.")
  4. opt = option.parse(parser.parse_args().opt, is_train=False)
  5. opt = option.dict_to_nonedict(opt)

配置文件 

设置配置文件相对地址options/test.yml

在该配置文件中配置GT和LQ图像文件地址

  1. datasets:
  2. test1:
  3. name: Test
  4. mode: LQGT
  5. dataroot_GT: C:\Users\86136\Desktop\LQ_test\shadow\GT
  6. dataroot_LQ: C:\Users\86136\Desktop\LQ_test\shadow\LQ

设置results_root结果地址,每次计算结束这个地址保存要求记录的计算结果

该目录下Test文件夹将保存一张GT一张LQ一张复原图像  。

不设置也会默认在项目内 daclip-uir-main\results\daclip-sde\universal-ir

  1. #### path
  2. path:
  3. pretrain_model_G: E:\daclip\pretrained\universal-ir.pth
  4. daclip: E:\daclip\pretrained\daclip_ViT-B-32.pt
  5. results_root: C:\Users\86136\Desktop\daclip-uir-main\results\daclip-sde\universal-ir
  6. log:

 

  1. #### mkdir and logger
  2. util.mkdirs(
  3. (
  4. path
  5. for key, path in opt["path"].items()
  6. if not key == "experiments_root"
  7. and "pretrain_model" not in key
  8. and "resume" not in key
  9. )
  10. )
  11. # os.system("rm ./result")
  12. # os.symlink(os.path.join(opt["path"]["results_root"], ".."), "./result")

 报错执行代码没有删除再创建权限?我把相关os操作注释了,全部保存到result对我影响不大

加载创建数据对

  1. #### Create test dataset and dataloader
  2. test_loaders = []
  3. for phase, dataset_opt in sorted(opt["datasets"].items()):
  4. test_set = create_dataset(dataset_opt)
  5. test_loader = create_dataloader(test_set, dataset_opt)
  6. logger.info(
  7. "Number of test images in [{:s}]: {:d}".format(
  8. dataset_opt["name"], len(test_set)
  9. )
  10. )
  11. test_loaders.append(test_loader)

 自定义包含复原IR-SDE模型的外层类model,参考app.py

  1. # load pretrained model by default
  2. model = create_model(opt)
  3. device = model.device

 加载DA-CLIP、IR-SDE

  1. # clip_model, _preprocess = clip.load("ViT-B/32", device=device)
  2. if opt['path']['daclip'] is not None:
  3. clip_model, preprocess = open_clip.create_model_from_pretrained('daclip_ViT-B-32', pretrained=opt['path']['daclip'])
  4. else:
  5. clip_model, _, preprocess = open_clip.create_model_and_transforms('ViT-B-32', pretrained='laion2b_s34b_b79k')
  6. tokenizer = open_clip.get_tokenizer('ViT-B-32')
  7. clip_model = clip_model.to(device)

else是直接使用CLIP的ViT-B-32模型进行测试的代码。与我测DA-CLIP无关。

想使用的话 目测要预先下载对应模型权重并手动修改pretrained为文件地址,否则报错hf无法连接

  1. sde = util.IRSDE(max_sigma=opt["sde"]["max_sigma"], T=opt["sde"]["T"], schedule=opt["sde"]["schedule"], eps=opt["sde"]["eps"], device=device)
  2. sde.set_model(model.model)
  3. lpips_fn = lpips.LPIPS(net='alex').to(device)
  4. scale = opt['degradation']['scale']

加载IR-SDE、LPIPS

如果不指定crop_border后续crop_border=scale

处理并计算

  1. for test_loader in test_loaders:
  2. test_set_name = test_loader.dataset.opt["name"] # path opt['']
  3. logger.info("\nTesting [{:s}]...".format(test_set_name))
  4. test_start_time = time.time()
  5. dataset_dir = os.path.join(opt["path"]["results_root"], test_set_name)
  6. util.mkdir(dataset_dir)
  7. test_results = OrderedDict()
  8. test_results["psnr"] = []
  9. test_results["ssim"] = []
  10. test_results["psnr_y"] = []
  11. test_results["ssim_y"] = []
  12. test_results["lpips"] = []
  13. test_times = []
  14. for i, test_data in enumerate(test_loader):
  15. single_img_psnr = []
  16. single_img_ssim = []
  17. single_img_psnr_y = []
  18. single_img_ssim_y = []
  19. need_GT = False if test_loader.dataset.opt["dataroot_GT"] is None else True
  20. img_path = test_data["GT_path"][0] if need_GT else test_data["LQ_path"][0]
  21. img_name = os.path.splitext(os.path.basename(img_path))[0]
  22. #### input dataset_LQ
  23. LQ, GT = test_data["LQ"], test_data["GT"]
  24. img4clip = test_data["LQ_clip"].to(device)
  25. with torch.no_grad(), torch.cuda.amp.autocast():
  26. image_context, degra_context = clip_model.encode_image(img4clip, control=True)
  27. image_context = image_context.float()
  28. degra_context = degra_context.float()
  29. noisy_state = sde.noise_state(LQ)
  30. model.feed_data(noisy_state, LQ, GT, text_context=degra_context, image_context=image_context)
  31. tic = time.time()
  32. model.test(sde, save_states=False)
  33. toc = time.time()
  34. test_times.append(toc - tic)
  35. visuals = model.get_current_visuals()
  36. SR_img = visuals["Output"]
  37. output = util.tensor2img(SR_img.squeeze()) # uint8
  38. LQ_ = util.tensor2img(visuals["Input"].squeeze()) # uint8
  39. GT_ = util.tensor2img(visuals["GT"].squeeze()) # uint8
  40. suffix = opt["suffix"]
  41. if suffix:
  42. save_img_path = os.path.join(dataset_dir, img_name + suffix + ".png")
  43. else:
  44. save_img_path = os.path.join(dataset_dir, img_name + ".png")
  45. util.save_img(output, save_img_path)
  46. # remove it if you only want to save output images
  47. LQ_img_path = os.path.join(dataset_dir, img_name + "_LQ.png")
  48. GT_img_path = os.path.join(dataset_dir, img_name + "_HQ.png")
  49. util.save_img(LQ_, LQ_img_path)
  50. util.save_img(GT_, GT_img_path)
  51. if need_GT:
  52. gt_img = GT_ / 255.0
  53. sr_img = output / 255.0
  54. crop_border = opt["crop_border"] if opt["crop_border"] else scale
  55. if crop_border == 0:
  56. cropped_sr_img = sr_img
  57. cropped_gt_img = gt_img
  58. else:
  59. cropped_sr_img = sr_img[
  60. crop_border:-crop_border, crop_border:-crop_border
  61. ]
  62. cropped_gt_img = gt_img[
  63. crop_border:-crop_border, crop_border:-crop_border
  64. ]
  65. psnr = util.calculate_psnr(cropped_sr_img * 255, cropped_gt_img * 255)
  66. ssim = util.calculate_ssim(cropped_sr_img * 255, cropped_gt_img * 255)
  67. lp_score = lpips_fn(
  68. GT.to(device) * 2 - 1, SR_img.to(device) * 2 - 1).squeeze().item()
  69. test_results["psnr"].append(psnr)
  70. test_results["ssim"].append(ssim)
  71. test_results["lpips"].append(lp_score)
  72. if len(gt_img.shape) == 3:
  73. if gt_img.shape[2] == 3: # RGB image
  74. sr_img_y = bgr2ycbcr(sr_img, only_y=True)
  75. gt_img_y = bgr2ycbcr(gt_img, only_y=True)
  76. if crop_border == 0:
  77. cropped_sr_img_y = sr_img_y
  78. cropped_gt_img_y = gt_img_y
  79. else:
  80. cropped_sr_img_y = sr_img_y[
  81. crop_border:-crop_border, crop_border:-crop_border
  82. ]
  83. cropped_gt_img_y = gt_img_y[
  84. crop_border:-crop_border, crop_border:-crop_border
  85. ]
  86. psnr_y = util.calculate_psnr(
  87. cropped_sr_img_y * 255, cropped_gt_img_y * 255
  88. )
  89. ssim_y = util.calculate_ssim(
  90. cropped_sr_img_y * 255, cropped_gt_img_y * 255
  91. )
  92. test_results["psnr_y"].append(psnr_y)
  93. test_results["ssim_y"].append(ssim_y)
  94. logger.info(
  95. "img{:3d}:{:15s} - PSNR: {:.6f} dB; SSIM: {:.6f}; LPIPS: {:.6f}; PSNR_Y: {:.6f} dB; SSIM_Y: {:.6f}.".format(
  96. i, img_name, psnr, ssim, lp_score, psnr_y, ssim_y
  97. )
  98. )
  99. else:
  100. logger.info(
  101. "img:{:15s} - PSNR: {:.6f} dB; SSIM: {:.6f}.".format(
  102. img_name, psnr, ssim
  103. )
  104. )
  105. test_results["psnr_y"].append(psnr)
  106. test_results["ssim_y"].append(ssim)
  107. else:
  108. logger.info(img_name)
  109. ave_lpips = sum(test_results["lpips"]) / len(test_results["lpips"])
  110. ave_psnr = sum(test_results["psnr"]) / len(test_results["psnr"])
  111. ave_ssim = sum(test_results["ssim"]) / len(test_results["ssim"])
  112. logger.info(
  113. "----Average PSNR/SSIM results for {}----\n\tPSNR: {:.6f} dB; SSIM: {:.6f}\n".format(
  114. test_set_name, ave_psnr, ave_ssim
  115. )
  116. )
  117. if test_results["psnr_y"] and test_results["ssim_y"]:
  118. ave_psnr_y = sum(test_results["psnr_y"]) / len(test_results["psnr_y"])
  119. ave_ssim_y = sum(test_results["ssim_y"]) / len(test_results["ssim_y"])
  120. logger.info(
  121. "----Y channel, average PSNR/SSIM----\n\tPSNR_Y: {:.6f} dB; SSIM_Y: {:.6f}\n".format(
  122. ave_psnr_y, ave_ssim_y
  123. )
  124. )
  125. logger.info(
  126. "----average LPIPS\t: {:.6f}\n".format(ave_lpips)
  127. )
  128. print(f"average test time: {np.mean(test_times):.4f}")

开头往log记录了相应配置文件内容,不需要可以注释。

遍历测试数据集(test_loaders)计算各种评价指标,如峰值信噪比(PSNR)、结构相似性(SSIM)和感知损失(LPIPS)。

在处理过程中,代码首先会创建一个目录来保存测试结果。

然后,对于每个测试图像,代码会加载对应的图像(如果可用),并使用一个名为clip_model的模型对图像进行编码。

接下来,代码会使用一个名为sde的随机微分方程模型和名为model的深度学习模型来处理带有噪声的图像,并生成复原图像(SR_img)。额可能作者拿了以前做超分的代码没改变量名

在这个过程中,text_contextimage_context被用作模型的输入,

图像都会被保存到之前创建的目录中。

此外,代码还会计算并记录每个图像的PSNR、SSIM和LPIPS分数,并在最后打印出这些分数的平均值。 代码中还包含了一些用于图像处理的实用函数,如util.tensor2img用于将张量转换为图像,util.save_img用于保存图像,以及util.calculate_psnrutil.calculate_ssim用于计算PSNR和SSIM分数。psnr_y和ssim_y 不用可以把相关代码注释。

最后,代码还计算了平均测试时间,并将其打印出来。

结果

log处理的单张图像报错的信息 0是该处理的图像排序序号,即正在处理第0张图

24-04-03 17:28:24.697 - INFO: img  0:_MG_2374_no_shadow - PSNR: 27.779773 dB; SSIM: 0.863140; LPIPS: 0.078669; PSNR_Y: 29.135256 dB; SSIM_Y: 0.869278.

 

可以给复原结果图加个后缀方便区分。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/383617
推荐阅读
相关标签
  

闽ICP备14008679号