赞
踩
PSNR(Peak Signal-to-Noise Ratio,峰值信噪比)是一种常用于衡量图像或视频质量的指标。它用于比较原始图像与经过处理或压缩后的图像之间的差异。PSNR通过计算原始图像与重建图像之间的均方误差(Mean Squared Error,MSE)来量化它们之间的差异。 PSNR的计算公式如下:
其中,MAX表示像素值的最大可能取值(例如,对于8位图像,MAX为255),MSE是原始图像与重建图像之间的均方误差。
PSNR的值越高,表示图像的质量与原始图像的相似度越高。常见的PSNR范围通常在20到50之间,数值越高表示图像质量越好。然而,PSNR作为一种图像质量评估指标也有其局限性。
它主要关注均方误差,忽略了人眼对于不同频率成分的敏感度差异以及感知失真的影响。因此,在某些情况下,PSNR可能不能准确地反映人类感知到的图像质量差异。
在实际应用中,除了PSNR,还有其他更全面和准确的图像质量评估指标,例如结构相似性指标(Structural Similarity Index,SSIM)、感知质量评估指标(Perceptual Quality Assessment,如VIF、MSSSIM)等,这些指标综合考虑了人眼感知和图像结构信息,能够提供更全面的图像质量评估。
- from PIL import Image
- import numpy as np
-
- img1 = np.array(Image.open('original.jpg')).astype(np.float64)
- img2 = np.array(Image.open('compress.jpg')).astype(np.float64)
-
-
- def psnr(img1, img2):
- mse = np.mean((img1-img2)**2)
- if mse == 0:
- return float('inf')
- else:
- return 20*np.log10(255/np.sqrt(mse))
-
-
- if __name__ == "__main__":
- print(psnr(img1, img2))
或者
- from skimage.metrics import peak_signal_noise_ratio as psnr
- from PIL import Image
- import numpy as np
-
-
- img1 = np.array(Image.open('original.jpg'))
- img2 = np.array(Image.open('compress.jpg'))
-
-
- if __name__ == "__main__":
- print(psnr(img1, img2))
意义:
PSNR接近 50dB ,代表压缩后的图像仅有些许非常小的误差。
PSNR大于 30dB ,人眼很难查觉压缩后和原始影像的差异。
PSNR介于 20dB 到 30dB 之间,人眼就可以察觉出图像的差异。
PSNR介于 10dB 到 20dB 之间,人眼还是可以用肉眼看出这个图像原始的结构,且直观上会判断两张图像不存在很大的差异。
PSNR低于 10dB,人类很难用肉眼去判断两个图像是否为相同,一个图像是否为另一个图像的压缩结果。
MS-SSIM(Multi-Scale Structural Similarity Index)是一种用于评估图像质量的指标,它是结构相似性指数(SSIM)在多个尺度上的扩展。
SSIM是一种衡量两幅图像相似性的指标,它考虑了图像的亮度、对比度和结构等方面。而MS-SSIM在SSIM的基础上引入了多个尺度,以更好地捕捉图像的细节信息。
具体而言,MS-SSIM的计算过程如下:
将原始图像和重建图像划分为不同尺度的子图像。
对每个尺度的子图像计算SSIM指数。
对每个尺度的SSIM指数进行加权平均,得到最终的MS-SSIM值。
MS-SSIM的值范围在0到1之间,数值越接近1表示重建图像与原始图像的相似度越高,图像质量越好。
相比于PSNR,MS-SSIM考虑了图像的结构信息,能够更好地反映人眼对图像质量的感知。它在评估图像质量方面具有更高的准确性和敏感性。
需要注意的是,MS-SSIM计算复杂度相对较高,因为它需要对图像进行多尺度的分解和计算。然而,由于其良好的性能,在图像压缩、图像处理等领域得到广泛应用,并且被认为是一种较为可靠的图像质量评估指标。
- import cv2
- import numpy as np
-
- def ms_ssim(img1, img2):
- # 转换为灰度图像
- img1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY)
- img2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY)
-
- # 计算MS-SSIM
- weights = np.array([0.0448, 0.2856, 0.3001, 0.2363, 0.1333]) # 不同尺度的权重
- levels = weights.size
-
- mssim = np.zeros(levels)
- mcs = np.zeros(levels)
-
- for i in range(levels):
- ssim_map, cs_map = ssim(img1, img2)
- mssim[i] = np.mean(ssim_map)
- mcs[i] = np.mean(cs_map)
-
- img1 = cv2.resize(img1, (img1.shape[1] // 2, img1.shape[0] // 2), interpolation=cv2.INTER_LINEAR)
- img2 = cv2.resize(img2, (img2.shape[1] // 2, img2.shape[0] // 2), interpolation=cv2.INTER_LINEAR)
-
- # 整体MS-SSIM计算
- overall_mssim = np.prod(mcs[:-1] ** weights[:-1]) * (mssim[-1] ** weights[-1])
-
- return overall_mssim
-
- def ssim(img1, img2, k1=0.01, k2=0.03, win_size=11, L=255):
- C1 = (k1 * L) ** 2
- C2 = (k2 * L) ** 2
-
- # 计算均值和方差
- mu1 = cv2.GaussianBlur(img1, (win_size, win_size), 1.5)
- mu2 = cv2.GaussianBlur(img2, (win_size, win_size), 1.5)
-
- mu1_sq = mu1 ** 2
- mu2_sq = mu2 ** 2
- mu1_mu2 = mu1 * mu2
-
- sigma1_sq = cv2.GaussianBlur(img1 * img1, (win_size, win_size), 1.5) - mu1_sq
- sigma2_sq = cv2.GaussianBlur(img2 * img2, (win_size, win_size), 1.5) - mu2_sq
- sigma12 = cv2.GaussianBlur(img1 * img2, (win_size, win_size), 1.5) - mu1_mu2
-
- # 计算相似性度量
- ssim_map = ((2 * mu1_mu2 + C1) * (2 * sigma12 + C2)) / ((mu1_sq + mu2_sq + C1) * (sigma1_sq + sigma2_sq + C2))
- cs_map = (2 * sigma12 + C2) / (sigma1_sq + sigma2_sq + C2)
-
- return ssim_map, cs_map
-
- # 读取图像
- img1 = cv2.imread('image1.jpg')
- img2 = cv2.imread('image2.jpg')
-
- # 计算MS-SSIM
- ms_ssim_score = ms_ssim(img1, img2)
- print("MS-SSIM score:", ms_ssim_score)
LPIPS(Learned Perceptual Image Patch Similarity)是一种基于学习的感知图像补丁相似性指标,用于评估图像的感知质量。
LPIPS的设计灵感来自于人眼对图像的感知,它通过学习一个神经网络模型来近似人类感知的视觉相似性。该模型使用卷积神经网络(CNN)对图像的局部补丁进行特征提取,并计算补丁之间的相似性得分。
具体而言,LPIPS的计算过程如下:
使用预训练的CNN模型(通常是基于深度学习的图像分类模型)提取原始图像和重建图像的特征表示。
将提取的特征表示作为输入,通过一个距离度量函数计算图像之间的相似性得分。
相似性得分表示图像之间在感知上的差异,数值越小表示图像之间的感知差异越小,图像质量越好。
LPIPS的得分范围通常是0到1之间,数值越小表示图像的感知质量越高。
与传统的图像质量评估指标(如PSNR和SSIM)相比,LPIPS更加注重于人眼感知的因素,能够更好地捕捉到图像之间的感知差异。它在图像生成、图像编辑等任务中被广泛应用,特别适用于需要考虑感知质量的场景。
需要注意的是,LPIPS是一种基于学习的指标,它的性能受到所使用的CNN模型和训练数据的影响。因此,在使用LPIPS进行图像质量评估时,需要使用与训练模型相似的数据集和预训练模型,以保证评估结果的准确性和可靠性。
- import torch
- import torchvision.transforms as transforms
- from PIL import Image
- from models import dist_model
-
- # 加载预训练的LPIPS模型
- model = dist_model.DistModel()
- model.initialize(model='net-lin', net='alex', use_gpu=True)
-
- # 图像预处理
- preprocess = transforms.Compose([
- transforms.Resize((256, 256)),
- transforms.ToTensor()
- ])
-
- # 加载图像并进行预处理
- image1 = Image.open('image1.jpg').convert('RGB')
- image2 = Image.open('image2.jpg').convert('RGB')
- image1 = preprocess(image1).unsqueeze(0)
- image2 = preprocess(image2).unsqueeze(0)
-
- # 将图像转换为PyTorch张量并计算LPIPS
- with torch.no_grad():
- lpips_score = model.forward(image1, image2).item()
-
- print("LPIPS score:", lpips_score)
PSNR(Peak Signal-to-Noise Ratio):PSNR是一种常用的图像质量评估指标,用于衡量原始图像与重建图像之间的差异。它通过计算均方误差(MSE)来量化两个图像之间的差异,数值越高表示图像质量越好。
MS-SSIM(Multi-Scale Structural Similarity Index):MS-SSIM是一种结构相似性指标,它在计算图像相似性时考虑了多个尺度的信息。与传统的结构相似性指标(SSIM)相比,MS-SSIM将图像分解成多个尺度,并在每个尺度上计算结构相似性指标,最后取平均值作为最终的相似性评估。MS-SSIM相较于PSNR更能反映人眼对于图像感知的差异。
LPIPS(Learned Perceptual Image Patch Similarity):LPIPS是一种学习的感知图像补丁相似性指标,它通过训练神经网络来学习图像补丁之间的感知相似性。LPIPS考虑了人眼对于图像感知的敏感性,通过计算图像补丁之间的感知距离来评估图像质量。与传统的结构相似性指标(如SSIM)相比,LPIPS在学习感知距离时更加准确和全面。
这些指标在图像质量评估中都有广泛的应用。PSNR主要用于衡量图像的重建误差,而MS-SSIM和LPIPS更加关注人眼对图像感知的差异。在实际应用中,不同的指标可以结合使用,以综合评估图像质量。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。