- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
ffmpeg 的 ssim 说明说引用应该排在第二位,当我按顺序比较这些视频时,(其中“copy.avi”应该是“original.avi”的无损 H.264 副本)SSIM 和 PSNR 返回无损结果。但如果我颠倒顺序,性能就不是无损的。
为什么会这样?
先复制,后原创
> ffmpeg -hide_banner -i copy.avi -i original.avi -lavfi "ssim;[0:v][1:v]psnr" -f null –
[avi @ 0x7ffdee002000] decoding for stream 0 failed
Input #0, avi, from 'copy.avi':
Metadata:
encoder : Lavf58.20.100
Duration: 00:00:10.67, start: 0.000000, bitrate: 644937 kb/s
Stream #0:0: Video: h264 (High 4:4:4 Predictive) (H264 / 0x34363248), yuv420p(progressive), 2048x1536, 645930 kb/s, 60 fps, 60 tbr, 60 tbn, 120 tbc
Input #1, avi, from 'original.avi':
Metadata:
encoder : Lavf54.35.100
Duration: 00:00:10.67, start: 0.000000, bitrate: 1509965 kb/s
Stream #1:0: Video: rawvideo (Y800 / 0x30303859), gray, 2048x1536, 1512312 kb/s, 60 fps, 60 tbr, 60 tbn, 60 tbc
Stream mapping:
Stream #0:0 (h264) -> ssim:main
Stream #0:0 (h264) -> psnr:main
Stream #1:0 (rawvideo) -> ssim:reference
Stream #1:0 (rawvideo) -> psnr:reference
ssim -> Stream #0:0 (wrapped_avframe)
psnr -> Stream #0:1 (wrapped_avframe)
Press [q] to stop, [?] for help
Output #0, null, to '–':
Metadata:
encoder : Lavf58.20.100
Stream #0:0: Video: wrapped_avframe, yuv420p(progressive), 2048x1536, q=2-31, 200 kb/s, 60 fps, 60 tbn, 60 tbc
Metadata:
encoder : Lavc58.35.100 wrapped_avframe
Stream #0:1: Video: wrapped_avframe, yuv420p, 2048x1536, q=2-31, 200 kb/s, 60 fps, 60 tbn, 60 tbc
Metadata:
encoder : Lavc58.35.100 wrapped_avframe
frame= 640 fps= 72 q=-0.0 Lq=-0.0 size=N/A time=00:00:10.66 bitrate=N/A speed=1.21x
video:670kB audio:0kB subtitle:0kB other streams:0kB global headers:0kB muxing overhead: unknown
[Parsed_ssim_0 @ 0x7ffdef8024c0] SSIM Y:1.000000 (inf) U:1.000000 (inf) V:1.000000 (inf) All:1.000000 (inf)
[Parsed_psnr_1 @ 0x7ffdef802940] PSNR y:inf u:inf v:inf average:inf min:inf max:inf
> ffmpeg -hide_banner -i original.avi -i copy.avi -lavfi "ssim;[0:v][1:v]psnr" -f null –
Input #0, avi, from 'original.avi':
Metadata:
encoder : Lavf54.35.100
Duration: 00:00:10.67, start: 0.000000, bitrate: 1509965 kb/s
Stream #0:0: Video: rawvideo (Y800 / 0x30303859), gray, 2048x1536, 1512312 kb/s, 60 fps, 60 tbr, 60 tbn, 60 tbc
[avi @ 0x7fb74680d600] decoding for stream 0 failed
Input #1, avi, from 'copy.avi':
Metadata:
encoder : Lavf58.20.100
Duration: 00:00:10.67, start: 0.000000, bitrate: 644937 kb/s
Stream #1:0: Video: h264 (High 4:4:4 Predictive) (H264 / 0x34363248), yuv420p(progressive), 2048x1536, 645930 kb/s, 60 fps, 60 tbr, 60 tbn, 120 tbc
Stream mapping:
Stream #0:0 (rawvideo) -> ssim:main
Stream #0:0 (rawvideo) -> psnr:main
Stream #1:0 (h264) -> ssim:reference
Stream #1:0 (h264) -> psnr:reference
ssim -> Stream #0:0 (wrapped_avframe)
psnr -> Stream #0:1 (wrapped_avframe)
Press [q] to stop, [?] for help
Output #0, null, to '–':
Metadata:
encoder : Lavf58.20.100
Stream #0:0: Video: wrapped_avframe, gray(progressive), 2048x1536, q=2-31, 200 kb/s, 60 fps, 60 tbn, 60 tbc
Metadata:
encoder : Lavc58.35.100 wrapped_avframe
Stream #0:1: Video: wrapped_avframe, gray, 2048x1536, q=2-31, 200 kb/s, 60 fps, 60 tbn, 60 tbc
Metadata:
encoder : Lavc58.35.100 wrapped_avframe
frame= 640 fps= 72 q=-0.0 Lq=-0.0 size=N/A time=00:00:10.66 bitrate=N/A speed=1.19x
video:670kB audio:0kB subtitle:0kB other streams:0kB global headers:0kB muxing overhead: unknown
[Parsed_ssim_0 @ 0x7fb748101780] SSIM Y:0.998296 (27.684975) All:0.998296 (27.684975)
[Parsed_psnr_1 @ 0x7fb748101c40] PSNR y:56.840774 average:56.840774 min:56.812125 max:56.871584
最佳答案
一种格式是 yuv420p,另一种是灰色。因此,为了比较它们,要么将灰色转换为 yuv420p,要么将 yuv420p 转换为灰色。正如您所注意到的,此操作并不总是无损的。要仅比较 Y 平面,请在调用 psnr/ssim 之前使用 extractplanes=y 过滤器。
关于ffmpeg - 为什么 FFMPEG SSIM 会根据这些未压缩视频中的哪个先/后产生不同的比较结果?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53253504/
TensorFlow 是否有 SSIM 或什至 MS-SSIM 实现? SSIM(结构相似性指数指标)是衡量图像质量或图像相似性的指标。它受到人类感知的启发,并且根据几篇论文,与 l1/l2 相比,它
我正在尝试在 FFmpeg 中对 SSIM 进行基准测试。如果我这样做 ffmpeg -i input.mp4 -vf vidstabtransform,unsharp=5:5:0.8:3:3:0.4
我读到有人说,如果您的研究涉及关于 PSNR 的结论,您必须再次重复所有内容,同时考虑 SSIM。 由于这意味着双重工作、时间(以及为什么不是金钱),现在使用 SSIM 参数再次进行所有模拟(已经使用
我需要比较 Linux 桌面服务器和 Android 客户端之间的流媒体质量。所以我有两张图片,一张来自 Linux 服务器,另一张来自 Android 客户端,它们的分辨率不同。 我的问题是如何计算
我以前知道SSIM是一种衡量两张图片相似度的方法。如何通过 SSIM 评分来判断处理图像的质量。该方法是否以最大值或最小值为标准? 最佳答案 是的,SSIM是一种比较两个图像之间的感知相似性的方法。如
使用这个奇妙的页面:https://www.pyimagesearch.com/2014/09/15/python-compare-two-images/我能够在三张图片之间找到 SSIM # imp
我在 ffmpeg 命令中寻找放置 -ssim 的正确位置。 ,或私有(private)选项。我没有找到它,但我有一个可行的选择,并会与您分享。它工作,但我不知道为什么。 首先尝试不使用 ssim 和
我正在通过 this repo 试用这个 SSIM 损失工具用于图像恢复。 引用原作者GitHub上的示例代码,我试过: model.train() for epo in range(epoch):
我需要 SSIM 作为网络中的损失函数,但我的网络有 2 个输出。我需要对第一个输出使用 SSIM,对下一个输出使用 cross-entropy。损失函数是它们的组合。但是,我需要更高的 SSIM 和
ffmpeg 的 ssim 说明说引用应该排在第二位,当我按顺序比较这些视频时,(其中“copy.avi”应该是“original.avi”的无损 H.264 副本)SSIM 和 PSNR 返回无损结
我正在计算两个图像之间的结构相似性指数。我不明白维度应该是什么。两个图像(引用和目标)都是 RGB 图像。 如果我将图像整形为 (256*256, 3),我将获得: ref = Image.o
我需要使用 Sewar 的 SSIM 作为损失函数来比较我的模型的图像。 当我尝试编译我的模型时出现错误。我导入函数并编译模型,如下所示: from sewar.full_ref import ssi
PHP 是否有足够的底层方法来实现 SSIM(结构相似性)等图像比较指标? 你们有 PHP 的 SSIM 功能吗?我一直在寻找,但找不到。我将尝试通过从 C 转换代码来自己制作它。 谢谢! 最佳答案
如果我有引用视频和测试视频,并且我想播放测试视频,同时还观察 SSIM 或 PSNR 图,可以使用 FFmpeg 的过滤器来完成吗? 最佳答案 基本模板是 ffplay -f lavfi "movie
我是一个ffmpeg新手。 我希望我的脚本(在 Windows 上)将平均 PSNR 和平均 SSIM 值输出到文件中。 (但不是每一帧的值) 我可以将它们输出到标准输出,但不能输出到文件。 我使用这
我正在使用 scikit-image SSIM 来比较两个图像之间的相似性。问题是我得到了负值,这对我的目的不利。我知道 SSIM 值的范围应该在 -1 到 1 之间,但我只需要获得一个正值,并且我希
我正在使用 TensorFlow 处理图像超分辨率问题(2D 和 3D),并且使用 SSIM 作为 eval_metrics 之一。 我正在使用来自 TF 的 image.ssim 和来自 skima
Stackoverflow 社区, 我正在尝试在 Python 上计算两个 bmp 图像之间的 SSIM(结构相似度)。我找到了structural_similarity()在 skimage pyt
我目前正在编写一个用于图像压缩的自动编码器。来自 previous post我现在最终确认我不能在 Keras 和 tensorflow 中使用纯 Python 函数作为损失函数。 (我正在慢慢开始理
我正在尝试使用 ffmpeg 计算图像的 ssim 和 psnr;但是,结果仅保留小数点后 2 位。有没有办法提高结果的精度(越高越好)? 输出: n:1 mse_avg:0.00 mse_r:0.0
我是一名优秀的程序员,十分优秀!