篡改图像检测论文 - Part1

date
Oct 15, 2024
Last edited time
Oct 15, 2024 05:48 AM
status
Published
slug
篡改图像检测论文 - Part1
tags
DL
CV
summary
type
Post
origin
Field
Plat

数据集

LEARNING TO LOCATE THE TEXT FORGERY IN SMARTPHONE SCREENSHOTS
Dataset
我们使用安卓、Harmony和iOS系统的智能手机收集了4094张原始截屏。这些截屏以JPEG或PNG格式保存,其分辨率从750×1334到2224×1668不等。对于每个原始截屏生成相应的STF (Screenshot Text Forgery),然后以PNG格式保存伪造截屏。我们在表1中展示了伪造截屏的详细信息。值得注意的是,伪造区域仅占整个图像的平均1.074%,这使得所提出的STFD相比其他图像取证数据集更具挑战性。我们将STFD按8:1:1的比例划分为不相交的训练、验证和测试部分。
notion image
notion image
方法
我们引入了OCR(光学字符识别)流(PP-OCR)作为RGB流的补充,并提出了一种新颖的双流Y-net架构,以共同学习图像文本区域上的痕迹所集中的表示。OCR流的设计目的是引导网络集中关注图像的文本区域。
notion image
💡
我们使用PP-OCR工具来检测和标记文本像素,并将剩余的非文本区域设置为黑色以得到OCR地图。
考虑到文本伪造通常是微妙且局部的,我们引入了一种多教师知识蒸馏学习策略来训练STFL-Net,这使得模型不容易过度拟合特定的伪造痕迹。每个教师模型都使用特定类型的伪造数据在 上进行预训练,然后在STFD中获得了五个教师模型,分别对应五种STF类型。
总损失可以写为:
ICDAR 2023 Competition on Detecting Tampered Text in Images
Dataset
提出TTI数据集,其中包含11,385张图片。其中5,500张图片经过了各种操作技术的篡改,并且使用像素级别的蒙版进行了注释。
notion image
数据来源
  • 阿里巴巴集团提供的经过数据脱敏后的电商应用图像
  • 志愿者拍摄的日常生活中的文字图像
  • 从开源数据集中选择的文本图像。这些图像包括认证、合同、截图、书籍、商品包装、招牌等。其中,收据图像来自SROIE数据集,扫描文档图像来自FUNSD和TNCR数据集。
篡改方式
我们对收集的文本图像进行了手动和自动操作,包括以下六种操作:(1) 复制-粘贴,(2) 拼接,(3) 插入,(4) 修复,(5) 覆盖,(6) 替换。自动操作是通过执行模仿上述真实文本篡改过程的PS脚本实现的。所有被篡改的图像都会经过一系列后处理步骤,其中包括随机裁剪、随机调整大小和随机压缩,以模拟实际电子商务场景中常见的扭曲效果。
通过比较篡改前后图像之间的差异,生成自动操纵图像的注释。(即有些标注是像素级别,非图像块级别)
notion image
Dataset Statistics and Analysis
大多数被篡改的区域小于5‰,篡改像素数超过30%的图像比例低于5%。图像的大小各不相同,给追踪微妙的篡改线索带来了挑战。
notion image
方案
  1. DeepLabv3+ 作为基本架构,使用DiNAT作为其主干,然后添加分类头和分割头。多任务学习可以通过将分类概率视为先验知识来优化分割性能。此外,基于CAT-Net 的改进DCT Volume流平行提取DCT域中的JPEG伪影。受TransForensics 启发,他们用注意力解码器替换了DeepLabv3+ 中的原始分割解码器,以增强不同位置和层级之间的关系。此外,在训练过程中采用了随机调整大小和随机压缩以平衡分布。同时使用Focal loss和dice loss来缓解数据不平衡问题。
  1. 为了结合不同架构的优势,我们采用了五种模型进行集成,包括ConvNeXt,HRNet,SegNeXt,DeepLabV3+和SegFormer。我们采用了各种数据增强策略,包括随机裁剪、随机压缩、光度扭曲、随机运动模糊、随机旋转和随机水平翻转。此外,我们还使用训练集中的未篡改图像合成伪造文本,以扩展正样本。为了解决数据不平衡的问题,我们应用了在线困难样本挖掘(OHEM)和加权损失函数。交叉熵损失、lovasz损失和dice损失的组合也有助于模型性能。为了全面探索局部和全局信息,我们在推理过程中采用了多尺度输入。
  1. 该团队利用ConvNeXt和SegFormer作为基本的分割模型。使用Dice损失和交叉熵损失来解决正负样本不平衡的问题。此外,他们通过添加辅助分类头来引入多任务学习,以减轻错误阳性的问题。为了解决尺度多样性的问题,他们采用了课程学习范例,在训练过程中不断从小尺寸迁移到大尺寸。还使用了随机翻转、随机亮度和对比度变换、随机压缩和随机高斯噪声进行数据增强。在推断过程中应用TTA来提高性能。
DocTamper(Towards Robust Tampered Text Detection in Document Image: New Dataset and New Solution)

Dataset

notion image
  • 文本篡改数据合成管道
      1. 使用开源OCR工具,获取单词和字符的边界框。
      1. 使用SAUVOLA算法将文档图像的前景从背景中分离出来,并记录每个文本的前景色和背景色。
      1. 采用选择性复制粘贴和选择性生成两种方法获得篡改后的文档图像。
      1. 通过后期处理来提高视觉一致性。
notion image
  • 数据集描述
    • 如表2所示,DocTamper数据集总共包含170k张被篡改的文档图像,其中包括中文和英文。我们的数据集中涵盖了复制-移动、拼接和生成这些不同类型的篡改,并且这些篡改类型的分布近似均匀。此外,我们将数据集划分为四个子集:一个包含120k个样本的训练集,一个包含30k个样本的通用测试集,以及两个分别包含2k和18k个样本的跨域测试集(FCD, SCD)。所有的被篡改图像都没有进行压缩存储,因此可以使用定制的压缩配置对其进行训练或测试。此外,我们还提供了像素级注释,用于表示篡改的文本区域。
notion image

Method

💡
包含三个部份:RGB+DCT输入,迭代的mask解码器,JPEG压缩逐步增强的训练策略。
在本节中,我们介绍了一种名为文档篡改检测器(DTD)的新模型,用于检测文档图像的篡改。总体架构如图4所示,它由四个模块组成: (1) 视觉感知头,从原始图像中提取视觉特征; (2) 频率感知头,将图像的离散余弦变换(DCT)系数转换为频域特征嵌入; (3) 多模态编码器; (4) 用于最终预测的多视图迭代解码器。
  • Visual Perception Head(视觉感知头):
    • notion image
  • Frequency Perception Head(频率感知头):
    • notion image
  • Multi-view Iterative Decoder(多视图迭代解码器):
    • notion image
  • Curriculum Learning for Tampering Detection
    • 在本节中,我们提出了一种名为篡改检测的课程学习(CLTD)的新的训练范例。该方法通过动态控制图像压缩的质量,以一种从易到难的方式来训练篡改文本检测模型。我们发现,这种方法可以显著提高模型对不同图像压缩的鲁棒性和跨域泛化能力。
      具体实现中,我们动态选择随机的JPEG压缩质量因子,范围为(B1, 100)。其中,B1是从(100-S/T, 100)中动态选择的。这里,S表示当前训练步数,T是手动预设的常数。相比于在整个训练过程中均匀选择随机质量因子,使用CLTD的模型在一开始更有可能遇到未压缩的图像。
      notion image
Tampered-IC13(Detecting Tampered Scene Text in the Wild)
Tampered-IC13
wangyuxin87Updated Aug 22, 2024
💡
提出在一般场景文本检测(STD)方法的基础上,完成“篡改场景文本检测”(TSTD)任务,即S3R策略,两个分支分别完成真实/篡改的文本分割。
Motivaton
为了继承一般场景文本检测(STD)方法的优点,如多尺度文本建模等,我们认为TSTD方法应该从STD方法发展而来,而不是一个全新的架构。因此,我们提出了一种名为Separating Segmentation while Sharing Regression (S3R)的修改策略,以基于现有的STD方法构建TSTD方法。S3R策略将篡改文本和真实文本之间的分割分支进行分离。
💡
TSTD任务需要定位场景图像中的所有文本,并判断该文本是否被篡改过(如图1所示)。
notion image
notion image
💡
场景文本检测(STD)网络包含两个过程:文本定位(TL)和几何预测(GP)。TL过程确定文本实例的位置(例如中心点/行),GP过程旨在准确重构文本区域(例如轮廓线)。
Method
本文使用两个并行的TL/GP头来预测篡改图像和真实图像。此外,使用了一个并行分支特征提取器,包括一个频率分支和一个RGB分支,以捕获高频信息和RGB信息。来自两个分支的特征被融合进行预测。
notion image
我们的并行分支特征提取器包含两个部分:频率分支和RGB分支。首先,输入图像分别经过这两个分支进行处理。然后,从两个分支捕获的信息通过逐元素相加进行融合。最后,聚合的特征被发送到主干网络。
 
RTM (Toward Real Text Manipulation Detection: New Dataset and New Solution)

Dataset

我们提供了一个真实文本操作(RTM)数据集,包括14,250个文本图像,其中包括5,986个手动篡改图像和5,258个自动篡改图像,使用各种技术创建,同时还有3,006个未修改的文本图像,用于评估解决方案的稳定性。
notion image
notion image
数据集来源
  1. 从电子商务平台提供的真实应用的普通文本图像,包括证书、合同、发票、 截图等;
  1. 由志愿者使用智能手机和数码相机拍摄的文本图像, 包括图书、商品包装、纸张、招牌等;
  1. 从开源数据集中选择的文档,特别是来自SROIE、FUNSD和TNCR的收据、扫描文件。
篡改操作
  1. 采用了由25个具有不同编辑偏好的专业操作员进行的手动篡改。这些操作员使用的操作包括copy-move、splicing、insertion、inpainting和coverage。
    1. notion image
  1. 自动篡改采用脚本自动生成,首先使用OCR工具分离文本和背景,然后进行文本篡改。
  1. 篡改完成后进行后处理,包括:Resize, Distortion, Jpeg压缩。

Method

💡
1.提出一个可以结合多个不同域输入的CAHub模块,以融合增强特征图。 2.带Memory Bank的对比学习。
我们构建了一个可扩展的基线模型ASC-Former(Asymmetric Stream Contrastive Transformer),在RTM上取得了最佳的整体性能。
  1. 我们并行地引入了一个辅助分支作为额外的线索,用于追踪图像篡改的痕迹,这个分支可以接收多个转换后的域。我们设计了一个一致性感知的聚合中心(CA Hub),用于收集每个域中的信息线索,而且可以很容易地扩展到更多的视角,而且计算开销很小。由于转换后的域是从原始的RGB图像中派生出来的,并且代表了输入的某个局部属性,我们通过一个门控交叉邻域注意力融合模块(GCNF)自适应地聚合多源特征。
  1. 此外,在训练阶段还使用了一个篡改-真实对比学习模块(TAC),明确增加潜在特征的区分度,其中配备了一个记忆机制,以应对篡改像素分布不平衡导致的样本配对不足的问题。
    1. notion image
  • CAHub, GCNF
    • notion image
      notion image
      用于特征融合,使用其他的如 Efficient Attention也可以
  • Tampered-Authentic Contrastive Learning
    • 引入篡改真实对比损失(TAC Loss),对真实、篡改图像块进行对比学习。
      notion image

Exp

notion image
Segformer效果不错。
notion image
Tampered-IC13 方法使用了文本定位辅助任务,本文没有。
notion image
 

检测方法

多输入

  1. DocTamper:RGB + DCT
    1. 💡
      VPH 和 PFH 中使用 CoordConv卷积 学习输入坐标关系
      PFH 的实现中使用 OBEMBED标准正交基编码DCT系数、QTEMBED 作为可学习嵌入编码量化表
  1. Tampered-IC13:RGB+LoG
  1. RTM:DCT+SRM+ELA
  1. HIFI-IFDL:RGB+LoG
  1. CAT-Net:RGB+DCT Volume
    1. 💡
      CAT-Net 另外还使用从JPEG文件中提取的QTable
  1. ObjectFormer:RGB+DCT
  1. MVSS-Net:RGB+Bayor卷积

多任务

  1. Tampered-IC13:场景文本检测
  1. UPOCR:文本分割、文本去除
  1. MVSS-Net:边缘检测、图像分类
  1. Edge-aware Regional Message Passing Controller for Image Forgery Localization:边缘检测
  1. SAFL-Net:边缘检测

对比学习

  1. NCL-IML
  1. SAFL-Net

高分辨率Backbone

  1. HIFI-IFDL
  1. CAT-Net

预训练任务

  1. CAT-Net:双重JPEG检测
  1. ObjectFormer:
      • 基于MS COCO,将物体进行copy-past+泊松混合
      • 基于 Paris Street View,使用 Edgeconnect 模型完成Inpaint
  1. TruFor:基于Flickr与DPReview,使用对比学习完成Noiseprint++训练

Uncertainty

  1. Uncertainty-guided Learning for Improving Image Manipulation Detection

Prototype Learning

  1. ObjectFormer

JPEG

  1. CAT-Net
  1. TruFor
  1. ImageForensicsOSN

其他

  1. SAFL-Net
  1. Locate and Verify
  1. WSCL

伪造检测论文

HIFI-IFDL. Hierarchical Fine-Grained Image Forgery Detection and Localization (CVPR2023)
💡
1.引入分割任务辅助分类,因此分割损失使用异常检测的形式。 2.根据篡改类型的层次依赖,设计了分层的细粒度分类方法。
方法
notion image
首先通过颜色块和频率块来提取给定输入图像的特征。对于频率块,我们将CNN特征图应用高斯拉普拉斯算子(LoG)。这种方法利用了图像在RGB和频域中同时存在的信息,从而生成伪影。
notion image
定位模块采用了自注意机制,其架构如图4所示。由于本文不评估分割指标,而是用于辅助任务,这里使用异常检测的损失函数:
具体来说,我们首先通过对训练集中所有真实图像像素的特征进行平均,预先计算一个参考中心。我们用表示最终掩模预测层的第个像素。是一个预先定义的边界。中的第一项提高了真实像素的特征空间紧凑性。第二项鼓励伪造像素的分布与真实像素相差一定距离
 
CAT-Net. Learning JPEG Compression Artifacts for Image Manipulation Detection and Localization (IJCV2022)
💡
1. RGB+DCT多流,其中DCT使用 DCT volume representation 表示(也可以像 DocTamper 中添加位置编码)。
2. 使用HRNet作为Backbone避免丢失细微信息。
3. 使用 Double JPEG Detection 任务预训练。另外验证了不使用 DCT volume representation 表示的话,网络无法完成预训练任务。
Motivation
图像采集和编辑过程中留下的JPEG压缩伪影可以判断伪造区域
Method
利用离散余弦变换(DCT)系数来定位图像操作,可以保留压缩伪影。然而,直接将DCT系数提供给CNN是不充分的,因为卷积丢弃了对DCT系数至关重要的空间坐标。我们使用DCT volume representation解决这个问题。 此外,我们还提出了一种新的使用双JPEG检测的预训练方法。
  1. DCT volume representation
    1. 卷积神经网络无法自动从原始DCT系数中学习压缩伪影,因为卷积操作具有平移不变性,对每个系数的处理都是相同的。然而,对于DCT系数来说,空间坐标是非常重要的。为此,我们引入一个名为的变换,将输入的DCT系数矩阵转换为二进制:
  1. Network Architecture
    1. 该网络建立在HRNet之上,以保持高分辨率的表示,并能够在不损失精细细节的情况下捕获整体图像。HRNet使用步幅为2的卷积对特征图进行下采样,而不使用池化层。最近的研究表明,对于需要捕捉细微信号的任务来说,池化是不可取的,因为池化会增强内容并抑制类似噪声的信号。
      notion image
      notion image
      notion image
  1. Double JPEG Detection Pretrain
    1. 我们在双JPEG检测任务上引入了一种新的预训练方案,对单张和双张压缩的JPEG图像进行分类。
      表2展示了双JPEG检测结果。第一行呈现了四种以RGB像素作为输入的方法。两个通用的计算机视觉网络,ResNet(He et al., 2016)和HRNet(Wang et al., 2020),都无法学习压缩伪影。同样,ManTra-Net(Wu et al., 2019)的特征提取器部分(图3中的Image Manipulation Trace Feature Extractor)也无法学习,正如研究人员所报道的那样。SRNet(Boroumand et al., 2018)是一个设计用于追踪微小信号的隐写分析网络,但它也无法学习压缩伪影。RGB领域不适合用于检测JPEG双重压缩。接下来的一行揭示了两个通用网络也无法学习压缩伪影,支持我们之前的论断,即当原始的DCT系数直接提供给它们时,CNN无法学习压缩伪影。第三行和最后一行是分别使用DCT直方图和DCT体积的方法。
      notion image
Experiments
notion image
notion image
TruFor: Leveraging all-round clues for trustworthy image forgery detection and localization (CVPR2023)
💡
1.基于Noiseprint结构训练一个Noiseprint++模型,训练方式为对比学习。 2.将提取的JPEG痕迹与原图一起输入,进行异常检测
Method
我们使用基于变换器的融合架构从RGB图像和学习的噪声敏感指纹中提取高级和低级痕迹。通过仅在真实数据上进行自我监督训练,我们学习了与相机内部和外部处理相关的伪造痕迹。
notion image
  • Noiseprint++
notion image
当两个补丁被认为是不同的时候,它们具有以下不同之处: (i) 它们来自不同的源; (ii) 它们从不同的空间位置提取; (iii) 它们具有不同的编辑历史。这些约束的目的是区分: (i) 由不同相机生成的补丁; (ii) 从一个空间位置移动到另一个空间位置的补丁; (iii) 来自经过不同后处理的图像的补丁。
notion image
notion image
  • Anomaly localization map
    • notion image

Result

notion image
notion image
Uncertainty-guided Learning for Improving Image Manipulation Detection (ICCV2023)
💡
1.使用基于不确定性的方式,模型预测均值方差。本文以均值一路预测的分割图与GT的误差,监督不确定性图(不太合理)。 2.二阶段使用不确定性对Featuremap进行增强,二阶段细化。
Motivation
IMD任务面临两个主要挑战:数据不确定性和模型不确定性。首先,数据不确定性源于被操作的工件通常很难识别,这给标注工作带来了巨大的挑战,并导致了噪声标签的出现。其次,模型不确定性是由于同一视觉内容在不同图像中的标签可能不一致而产生的。传统方法和基于深度学习的方法可以生成带有准确标签的操作数据,并在一定程度上缓解了数据不确定性问题。然而,生成的数据与现实世界中的操作数据并不具有相同的分布。因此,这些方法无法有效应对实际案例中的数据不确定性问题。
为了揭示这两种不确定性,有一种直接的解决方法是利用不确定性估计技术对其进行估计。在这些技术中,数据不确定性和模型不确定性分别被称为即兴不确定性和认知不确定性。本文采用蒙特卡洛抽样方法来近似这两种不确定性。
notion image
 
💡
先提出這兩種不確定性,詳細介紹這兩種不確定性,但是後面卻使用模型建模統一的不確定性。😰

Method

我们提出了一种不确定性引导的学习框架(Uncertainty Estimation Network,UEN)来捕获数据和模型的不确定性。UEN由动态不确定性监督(DUS)和不确定性预测精化(UPR)两个关键部分组成。
notion image
  • Uncertainty estimation network
    • 💡
      的獲取比較奇怪,這個真的算是不確定性圖麽,應該算是誤差圖?至於其他的是常規操作。
  • Uncertainty-guided prediction refinement
    • 我们打算通过设计不确定性引导的预测精化 (UPR) 来解决这些困难。具体而言,我们提出将特征嵌入 与加权不确定性图进行耦合。具体方法如下所示:
      💡
      至於其他的 都是 BCE 損失。

Result

notion image
 
UPOCR: Towards Unified Pixel-Level OCR Interface (Arxiv2023)
💡
UPOCR引入了文本分割、文本去除作为文本篡改检测的辅助任务,使用Prompt来控制任务目标,大大扩充了训练的数据集。
UPOCR将不同的OCR任务范例统一为图像到图像的转换范例,并采用基于Vision Transformer(ViT)的编码器-解码器架构。编码器-解码器架构的灵感来自于在文本去除领域取得显著成功的ViTEraser(SwinTransformer v2)。通过引入可学习的任务提示,将编码器提取的通用特征表示推向任务特定的空间,赋予解码器任务感知能力。
notion image
notion image
notion image
💡
Tampered-IC13数据集过小,使用预训练和多任务扩充数据集,可以轻易提点
NCL-IML. Pre-training-free Image Manipulation Localization through Non-Mutually Exclusive Contrastive Learning (ICCV2023)
notion image
Motivation
深度图像操纵定位(IML)模型面临训练数据不足的问题,因此严重依赖预训练。我们认为,对比学习更适合解决IML的数据不足问题。
篡改块和真实块具有天然的互斥性,但同时包含篡改像素和真实像素的轮廓块对它们是非互斥的。简单地对这些轮廓块进行否弃操作会导致严重的性能损失,因为轮廓块对学习结果是决定性的。
Method 非互斥对比学习( NCL )
在NCL中,为了应对非互斥性,我们首先建立了具有双分支的pivot结构,在训练时不断切换轮廓块在正负之间的作用。
notion image
是正样本和负样本。我们将两个分支的输出写为。对比损失为:
另外,BCE损失训练分隔图的时候,对边缘的Patch使用更大的权重。
ObjectFormer for Image Manipulation Detection and Localization(CVPR2022)
💡
使用Query-based方式的Decoder,在过程中使不同Query进行交互,进行一致性学习(对比Query位置的图像是否一致)。
为了捕获在 RGB 域中不再可见的微妙操作痕迹,我们提取图像的高频特征并将其与 RGB 特征组合作为多模态补丁嵌入。此外,我们使用一组可学习的对象原型作为中级表示来对不同区域之间的对象级一致性进行建模,这些原型进一步用于细化补丁嵌入以捕获补丁级一致性。
notion image
使用频域信息,并使用prototypes方式学习。训练的时候自己造了数据集。
 
 
MVSS-Net: Multi-View Multi-Scale Supervised Networks for Image Manipulation Detection (TPAMI2022)
ImageForensicsOSN. Robust Image Forgery Detection over Online Social Network Shared Images (CVPR2022)
💡
模型模拟社交网络媒体的有损压缩,分为:Residual Learning 网络直接学习JPEG压缩以及加入对抗噪声。最后使用上述增强的图像训练Detector。
Motivation
广泛使用在线社交网络(OSN)使其成为传输伪造图像、报告假新闻和传播谣言等不良信息的主要渠道。OSN采用的各种有损操作,例如压缩和调整大小,给实现鲁棒的图像伪造检测带来了巨大的挑战。
Method
我们提出了一种噪声建模方案,将OSN噪声分解为两个部分:1)可预测的噪声和2)看不见的噪声。前者旨在模拟已知操作(例如JPEG压缩)带来的可预测损失,其建模依赖于具有残差学习和嵌入式可微JPEG层的深度神经网络(DNN)。而后者主要是针对OSN进行的不可知的行为和/或各种OSN的训练和测试之间的差异。
然而,为看不见的噪声建立合适的模型是不现实的。为了解决这个困难,我们只关注可能导致检测性能恶化的噪声。这种策略自然地孵化了一种新的算法,利用对抗性噪声的核心思想来对看不见的噪声进行建模。
图2展示了用于伪造检测的稳健训练方案的框架,该方案由四个阶段组成。简言之,第一阶段和第二阶段旨在通过可微网络模拟可预测的噪声。第三阶段利用对抗性噪声生成策略对不可见的噪声进行建模。最后,第4阶段进行图像伪造检测器 的实际鲁棒训练。
为了与 OSN 平台中的图像处理流程保持一致,我们训练了一个 DNN 模型,该模型显式嵌入一个可微层来描述 JPEG 压缩。在应用了可微分的JPEG层之后,训练 的目标函数变为: 在我们的训练中, 表示具有给定 QF 的可微JPEG层(Facebook采用的范围[71, 95])。然后就可以直接导出噪声 。然后,对抗方式优化添加的Noise(不可知的噪声)。
notion image
notion image
💡
S returns the sign of the gradient.
 
 
Edge-aware Regional Message Passing Controller for Image Forgery Localization (CVPR2023)
动态图+边缘检测辅助任务
notion image
SAFL-Net: Semantic-Agnostic Feature Learning Network with Auxiliary Plugins for Image Manipulation Detection (ICCV2023)
💡
提出两个即插即用的模块,语义抑制模块用来以抑制特征的语义相关性,分为图像级别以及图像块级别的对比学习,通过预训练出基准语义,然后使用该语义抑制图像级别的语义相关性。并挑选负例中语义接近的地方进行对比学习。边缘引导模块引入边缘检测辅助任务。
Motivation
大多数篡改操作发生在与语义属性表现出强烈相关性的区域。然而,可用训练数据的有限性和偏差性意味着这种相关性不足以准确地表示现实世界场景的分布。例如,篡改区域集中在人区域的数据集可能会导致检测模型显示重要的语义关联,从而导致错误的预测,如图1中用绿色框标记的区域所示。因此,这种语义相关性可能会影响篡改痕迹特征的学习,尽管它可能会提高模型对训练数据的拟合。
notion image
Method
提出SAFL-Net,以不作任何修改的通用特征提取网络为骨干,通过模块化辅助任务约束特征提取器学习语义不可知的特征,从而防止有限训练数据内与语义信息相关的偏差,并提高泛化能力。
notion image
 
  • Semantic Suppression Module
    • 我们建议将从语义分割模型中提取的特征定义为基准语义表示,作为限制语义信息的参考。
      使用两个预训练的Encoder来pretrain ConvBlock:
      notion image
      然后最小化之间的相似度:
notion image
  • Patch-level Contrast
    • 如果图像patch中95%以上的像素被篡改,则将该图像patch视为篡改区域,进行对比学习。正例是其他篡改区域,负例是为篡改区域中,语义与Anchor区域最为接近的一块。
      是篡改区域。中语义最相近的区域。
  • Boundary Guidance Module
    • notion image
      使用软边界监督,类似SDF
      notion image
 
Locate and Verify: A Two-Stream Network for Improved Deepfake Detection (MM2023)
notion image
分割任务辅助分类,分割任务使用弱监督实现
WSCL. Towards Generic Image Manipulation Detection with Weakly-Supervised Self-Consistency Learning. (ICCV2023)
我们提出了弱监督的图像篡改检测方法,只需要二值图像级别的标签(真实或篡改)用于训练目的。 我们学习了两个一致性属性:多源一致性(MSC)和区块间一致性(IPC)。
  • MSC利用不同的与内容无关的信息,并通过在线伪标签生成和细化过程实现跨源学习。
  • IPC通过全局配对区块-区块关系推理来发现完整的篡改区域。
notion image
Adaptive Pooling for Image-Level Detection
全局最大池化存在几个明显的缺点。首先,它只能检测到最有区别性的部分,但无法检测到操纵的全部范围。其次,损失函数只通过最大响应进行反向传播,阻碍了模型的训练。 我们提出了一种自适应池化方法,使用Otsu的方法将预测图像划分为两组。我们通过自适应池化确定的图像级预测值 是高响应组的平均值。
Learning Multi-Source Consistency
notion image
常见的弱监督方式,一致性。
Learning Inter-Patch Consistency
简单来说是约束特征图每个位置的相似度矩阵,和MSC得到的GT一致。也是常见的弱监督方式。
Exp
notion image
notion image
notion image
ReLoc: A Restoration-Assisted Framework for Robust Image Tampering Localization (TIFS2023)
💡
使用自编码器重建原图,来去除后处理痕迹,再使用重建的图像进行篡改检测。
Motivation
现有的图像篡改定位方法在对篡改图像进行一定的后处理操作时,由于后处理操作会使篡改痕迹发生畸变,导致其性能严重下降。
为了提高对抗后处理的鲁棒性,最近的一些工作尝试在训练阶段引入失真图像。然而,由于篡改痕迹经过后处理已经失真,很难学习到具有判别性的特征。如图1 - c所示,即使直接利用失真图像对定位网络进行微调,也不能很好地检测出篡改区域。
notion image
我们的核心思想是,一旦经过后处理扭曲的篡改痕迹能够被恢复或重新增强,就能够学习有效的篡改定位表示。
Method
notion image
恢复模块的目标是通过去除扭曲痕迹,从扭曲的图像中恢复出高质量的对应物。为了更有效地捕捉微小的篡改痕迹,定位模块将恢复后的图像作为输入。我们使用像素级损失、图像级损失和面向取证的定位损失来训练恢复模块,以同时考虑图像的视觉质量和篡改的定位效果。我们还建议采用交替的优化方式来训练恢复和定位模块,以提高训练过程的稳定性和性能。
Towards Effective Image Manipulation Detection with Proposal Contrastive Learning
PCL
Sandy-ZengUpdated May 24, 2024
💡
不是分割的方法,使用多输入和对比学习策略。对比学习使用两个模态的特征作为正样本。
Motivation
现有的大多数方法主要关注于从篡改图像中提取全局特征,而忽略了单个篡改图像中篡改区域和真实区域之间的局部特征关系。
Method
我们提出了提议对比学习(PCL)用于有效的图像操作检测。我们的PCL通过从RGB和噪声视图中提取两种类型的全局特征,构建了一个双流架构。为了进一步提高判别力,我们通过基于提议的正/负样本对的吸引/排斥对比学习任务来挖掘局部特征之间的关系。
notion image

总结

  1. 有些文章使用了基于异常检测的损失,如HIFI-IFDL,但其目的只是用于辅助分类的任务,分割不考虑使用。
  1. 引入多任务是常见的手段,自然图像可以使用边缘检测任务,文本图像可以引入文本定位(T-IC13)等。UPOCR通过任务Prompt的方式,引入了文本去除、文本分割任务。
  1. 多输入,代表为RTM,重点是设计特征融合的方式。
  1. 引入对比学习,自然图像的如NCL-IML、SAFL-Net,文本图像的有RTM。但需要考虑如何选取正负样本。
  1. 使用高分辨率的Backbone,暨不带池化层避免信息丢失,如HRNet。但竞赛中似乎没有这种方案。
  1. 基于JPEG进行检测。即预训练一个对JPEG区分的模型,然后使用模型的特征(输出)进行检测。如TruFor,CAT-Net。
  1. 基于Prototype的方法。使用query来关注前景、背景的不同对象,然后互相交互判别一致性。同时可以采样不同的方式初始化Query。
 

可以参考的COD论文

  1. Uncertainty-Guided Transformer Reasoning for Camouflaged Object Detection (ICCV)
    1. notion image
      字节那一篇使用不确定性的ICCV中关于不确定的过程和这基本一致
  1. 也可以使用基于基于CVAE的方法:
    1. Predictive Uncertainty Estimation for Camouflaged Object Detection
      notion image
  1. 对特征进行高低频分解
    1. 使用DWT:Camouflaged Object Detection with Feature Decomposition and Edge Reconstruction
      1. notion image
    2. 使用八度卷积:Frequency Perception Network for Camouflaged Object Detection
      1. notion image
  1. 基于query的分割模型,联合边缘检测作为辅助任务
    1. A Unified Query-based Paradigm for Camouflaged Instance Segmentation
  1. 多阶段
    1. High-resolution Iterative Feedback Network for Camouflaged Object Detection
      notion image
  1. 分心挖掘+深监督,如PUE-Net
    1. notion image
       
       

Todo

  1. 测试伪装目标检测中的高低频分解方案(FEDER与FPNet)、不确定性、QueryBased方法
    1. 💡
      可以跑几个COD的模型
       
  1. 辅助任务
    1. 边缘检测:可以使用差分块
    2. 文本分割
    3. 场景文本检测、排版检测
      1. notion image
        notion image
        💡
        但是 DocTamper 数据集文本密集
    4. 梯度检测(X)
    5. 图片Patch的来源分类:目的是区分不同字体、不同大小、不同来源的图片(形式可能是采用对比学习)
  1. 加入对比学习(在通用图像篡改检测中常见,文档篡改检测中RTM有使用)
    1. 正负样本选取:
    2. 是否选择边缘块?
      1. 不选择边缘块:在copy-move场景下,篡改块中心也是真实的。(这时进行对比学习,学习的可能是是否进行Double Jpeg压缩)
      2. 选择边缘块:边缘块大小可能太小?
    3. 字符之间的对比学习:对比正常字符与篡改字符、找到与当前字符最相似的字符进行对比
  1. 分辨率着手
    1. HRNet
    2. 低分辨率 → 细化到高分辨率 (SegMaR-CVPR2022)
      1. notion image
        💡
        SegMaR是多阶段(使用上一步的AttentionMap放大输入图像,然后迭代直到差异变得很小),可以改为两阶段(第一阶段直接预测,后直接放大)
        问题:判断篡改,需要全局的信息
  1. QueryBased的分割方法
    1. UQFormer、ObjectFormer
      可以使用不同的proposal生成方式(不是可学习的proposal)
  1. 残差输入:(异常检测)
    1. 类似CVPR2022-DRA。因为篡改的字符为少数,对字符区域的特征进行平均得到正常参考特征,然后相减,将相减后的特征(背景无关特征,后处理无关特征)作为输入。(需要辅助任务,场景文本检测)
  1. 多输入
    1. DCT
    2. DnCNN
    3. TruFor
    4. 原图 - 二值化
  1. 前景背景对比
    1. Noise Based Deepfake Detection via Multi-Head Relative-Interaction
      notion image
      notion image
       

© Lazurite 2021 - 2024