赞
踩
不一致光照(inconsistent light)指的是在一组视频帧中,由于物体的变换、反射和遮挡,环境光在不同帧之间的表现出现变化。这种变化可能是因为物体的移动、相机的移动或者光源的变化导致的。在单个视频帧内,光照通常表现为相对一致,因为所有的影像内容都是在同一瞬间捕捉的,而在连续的视频帧中,物体和光源的相对位置可能会发生变化,从而导致光照的变化。
高边界对比度(High boundary contrast)是一个图像处理术语,通常用来描述图像中边界区域亮度或颜色的显著变化。在图像中,边界是两个不同区域相遇的地方,边界对比度是指边界两侧亮度或颜色差异的程度。
这里的一些关键点有助于理解“高边界对比度”:
“Inconsistent light”(不一致的光照)通常是指图像中光照条件的不连贯性或不自然性,这种情况可能在图像合成或篡改时出现。不一致的光照可能表现为以下几种情况:
High boundary contrast(高边界对比度)对应的是图像的高频信息。在图像处理中,边界对比度高意味着在很小的空间范围内,像素值(亮度或颜色)有很大的变化。这种快速变化的特征是由图像的高频分量表示的。
在傅里叶变换(一种常用来分析图像中频率成分的工具)中,图像的高频分量对应于图像中的细节部分,如边缘、纹理和噪声,而低频分量则对应于图像中的平滑区域,如均匀的背景和大的色块。因此,当我们谈论高边界对比度时,我们实际上是在指高频信息。
已有相关文献证明SRM可以有效的提取高频信息,SRM通过计算目标像素和相邻像素的残差,量化并截断滤波器的输出,提取同现信息作为最终特征。
SRM滤波器通过计算像素的残差,实际上是在提取这些高频信息。
这个过程和高频信息的关系可以这样理解:
直接指路双线性池化相关论文
还是写的比较详细的,值得一提的是该层有两种投影方法,RM(随机麦克劳林)和TS(张量草图),其中TS的计算量和参数量较少。
吐槽一下 两个128维经过CBP后融合得到的特征维度是8192,这也忒大了
在视频篡改检测和计算机视觉领域,IoU(Intersection over Union)是一种常用的评估指标,用于衡量预测边界框(bounding box)与真实边界框之间的重叠程度。IoU 是一种评价目标检测算法性能的标准方法,尤其在视频篡改检测中,它可以帮助我们了解检测到的篡改区域的准确性。
IoU 的计算方法如下:
交集(Intersection):计算预测边界框和真实边界框之间的交集区域。
并集(Union):计算两个边界框覆盖的总区域,包括交集部分和各自独有的部分。
计算IoU值:将交集的面积除以并集的面积。
IoU = Area of Intersection Area of Union \text{IoU} = \frac{\text{Area of Intersection}}{\text{Area of Union}} IoU=Area of UnionArea of Intersection
IoU 值的范围从0到1:
在实践中,IoU 值越高,表示预测的边界框与真实边界框吻合得越好,检测算法的性能越好。通常,IoU 值大于某个阈值(例如0.5)时,预测结果才会被认为是正确的。
在视频篡改检测任务中,IoU 可以用来评估检测出来的篡改区域与实际篡改区域之间的一致性。高IoU值表明检测算法能够准确定位视频中被篡改的部分,而低IoU值则可能意味着检测结果不准确,或者篡改区域被部分遗漏或错误标记。
纹理信息:
边缘信息:
在图像处理和计算机视觉中,纹理和边缘是用来提取信息和理解场景的两种重要的视觉线索。它们通常通过不同的算法和技术来检测和分析:
因此,纹理和边缘是图像中的两种不同的特征,它们在图像处理和分析中扮演着各自独特的角色。
[11]S. Chen, S. Tan, B. Li, and J. Huang, “Automatic detection of objectbased forgery in advanced video,”. IEEE Transactions on Circuits and Systems for Video Technology, vol. 26, no. 11, pp. 2138-2151, 2016.
【11】创建了SYSU-OBJFORG数据集,并提出了一种基于运动残差的时间篡改检测算法。首先,通过视频帧序列的勾结算子生成运动残差帧。然后,通过图像篡改检测算法来检测这些运动残差帧。
[22]Y. Yao, Y. Q. Shi, S. Weng, and B. Guan, “Deep learning for detection of object-based forgery in advanced video,” Symmetry, vol. 10, no. 1, pp. 3,2017.
[23] L. Chen, Q. Yang, L. Yuan, Y. YAO, Z. ZHANG, and G. WU, “Passive forensic based on spatio-temporal localization of video object removal tampering,” Journal on Communications, vol. 41, no. 7, pp. 110-120, 2020.
C3D+C2D 五帧做输入的时候好像没什么特殊含义
[24] Q. Yang, D. Yu, Z. Zhang, Y. Yao, and L. Chen, “Spatiotemporal trident networks: detection and localization of object removal tampering in video passive forensics,” IEEE Transactions on Circuits and Systems for Video Technology, vol. 31, no. 10, pp. 4131-4144, 2021.
时空三叉戟网络考虑到了混合输入帧的问题
时域检测
空域定位
[28] L. Xiong, M. Cao, and Z. Fu, “Forensic of video object removal tamper based on 3D dual-stream network,” Journal on Communications, vol. 42, no. 12, pp. 202-211, 2021.
[29] S. Tan, B. Chen, J. Zeng, B. Li and J. Huang, “Hybrid deep-learning framework for object-based forgery detection in video,” Signal Processing: Image Communication, vol. 105, pp. 116695, 2022.
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。