gpt4 book ai didi

python - 哪个 SSIM 是正确的 : skimage.metrics.structural_similarity()?

转载 作者:行者123 更新时间:2023-12-01 07:01:34 30 4
gpt4 key购买 nike

Stackoverflow 社区,

我正在尝试在 Python 上计算两个 bmp 图像之间的 SSIM(结构相似度)。我找到了structural_similarity()skimage python 库中实现的函数以及原始 MatLab 实现中的等效代码 hosted here 。其实现如下:

def structuralSimilarityIndex(ref_image, impaired_image, cs_map=False):

window = Metric.fSpecialGauss(constant.SSIM_FILTER_SIZE,
constant.SSIM_FILTER_SIGMA)
C1 = (constant.SSIM_Constant_1 * constant.PIXEL_MAX) ** 2
C2 = (constant.SSIM_Constant_2 * constant.PIXEL_MAX) ** 2

mu1 = signal.fftconvolve(window, ref_image, mode='valid')
mu2 = signal.fftconvolve(window, impaired_image, mode='valid')

mu1_sq = mu1 * mu1
mu2_sq = mu2 * mu2
mu1_mu2 = mu1 * mu2

sigma1_sq = signal.fftconvolve(
window, ref_image*ref_image, mode='valid') - mu1_sq
sigma2_sq = signal.fftconvolve(
window, impaired_image*impaired_image, mode='valid') - mu2_sq
sigma12 = signal.fftconvolve(
window, ref_image*impaired_image, mode='valid') - mu1_mu2

if cs_map:
return (((2 * mu1_mu2 + C1) * (2 * sigma12 + C2)) / ((mu1_sq + mu2_sq + C1) * (sigma1_sq + sigma2_sq + C2)), (2.0 * sigma12 + C2) / (sigma1_sq + sigma2_sq + C2))
else:
return np.mean(((2 * mu1_mu2 + C1) * (2 * sigma12 + C2)) / ((mu1_sq + mu2_sq + C1) * (sigma1_sq + sigma2_sq + C2)))

我正在使用这段代码读取图像:

ref_image = np.asfarray(Image.open('ref_image.bmp').convert('L'))
impaired_image = np.asfarray(Image.open('impaired_image.bmp').covert('L)

ref_imageimpaired_image 的输入图像形状和 dtype 分别为:

(512, 512) float64

(512, 512) float64

我已经使用相同的条件和相同的输入图像进行了测试,如下所示:

# Using the above code
structuralSimilarityIndex(ref_image, impaired_image, cs_map=False)

# Using the function imported from skimage.metrics
structural_similarity(ref_image, impaired_image, gaussian_weights=False, use_sample_covariance=False)

结果有很大不同,结果如下:

来自 Skimage python 库的 SSIM:

SSIM : 0.38135154028457885

上面代码中的 SSIM:

SSIM : 0.8208087737160036

编辑:

我已经添加了读取和调用代码

上面的Python代码来自signal processing library ,据作者称,该函数试图精确模仿SSIM作者提供的MATLAB ssim.m的功能

更新:

我已经在相同的图像上测试了在 MatLab 中编写的原始代码,结果如下:

SSIM : 0.8424

这与上面给出的 Python 实现的结果相差不远。

最佳答案

我在 scikit-image Github 存储库上提出了一个问题,并得到了答案。答案在这里,我没有对答案进行任何更改,你可以找到它 here :

我认为这里的主要问题是从 PIL 计算图像的方式会产生浮点图像,但这些图像的值在 [0, 255.0] 范围内。当输入为浮点型时,skimage 会假定 data_range 的范围为 [-1.0, 1.0],因此您需要手动指定 data_range=255。

此外,请参阅文档字符串的“注释”部分,了解设置 gaussian_weights=True、sigma=1.5 的建议,以更紧密地匹配 Wang 等人的 Matlab 脚本。等人。 (我认为最近的Matlab也有自己内置的SSIM实现,但我没有尝试与那个案例进行比较,不知道是否完全相同)。

ref_image = np.asfarray(Image.open('avion.bmp').convert('L'))
impaired_image = np.asfarray(Image.open('avion_jpeg_r5.bmp').convert('L'))
structural_similarity(ref_image, impaired_image, multichannel=True, gaussian_weights=True, sigma=1.5, use_sample_covariance=False, data_range=255)

gives 0.8292 when I tried it.

或者,您可以使用 skimage.io.imread 和 rgb2gray 读取数据并将其转换为灰度。在这种情况下,值将在 [0, 1.0] 范围内缩放,并且 data_range 应设置为 1.0。

from skimage.io import imread
from skimage.color import rgb2gray
ref_image = imread('avion.bmp')
ref_image = rgb2gray(ref_image)
impaired_image = imread('avion_jpeg_r5.bmp')
impaired_image = rgb2gray(impaired_image)

structural_similarity(ref_image, impaired_image, multichannel=True, gaussian_weights=True, sigma=1.5, use_sample_covariance=False, data_range=1.0)

gives 0.8265

我认为上述两种情况之间的微小差异可能是由于 rgb2gray 使用与 PIL 的 convert 方法不同的亮度转换所致。

关于python - 哪个 SSIM 是正确的 : skimage.metrics.structural_similarity()?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58604326/

30 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com