Advancements in AI-Generated Content Forensics: A Systematic Literature Review
英文题目:《Advancements in AI-Generated Content Forensics: A Systematic Literature Review》
中文题目:《人工智能生成内容取证研究进展:一个系统的文献综述》
论文作者:Qiang Xu, Wenpeng Mu, Jianing Li, Tanfeng Sun, Xinghao Jiang
发布时间:2025-07-09
级别:中科院一区
论文链接:https://doi.org/10.1145/3760526
论文代码:无
摘要
人工智能生成内容( AIGC )的快速发展,横跨文本、图像、视频和音频,创造了前所未有的创造力和重大社会风险的双刃剑,包括错误信息和虚假信息。该调查对AIGC检测技术的现状进行了全面和结构化的概述。我们首先回顾了生成模型的发展历程,从基础的GAN到最新的扩散和基于Transformer的架构。然后,我们系统地回顾了所有模态的检测方法,并将其组织成一个新的外部检测和内部检测分类。 对于每种模态,我们追溯了从早期基于特征的方法到高级深度学习的技术进展,同时也涵盖了关键任务,如模型归属和篡改区域定位。此外,我们还调查了可公开获得的检测工具和实际应用的生态系统。最后,我们总结了该领域面临的主要挑战- -包括泛化性、鲁棒性、可解释性和缺乏通用基准- -并概述了未来的主要方向,如开发整体的人工智能安全代理、动态评估标准和人工智能驱动的治理框架。 这项调查旨在为研究人员和实践者提供一个清晰、深入的了解,以了解在确保安全和可信的AIGC生态系统的持续努力中的最新和关键前沿。
图像生成与取证
生成技术演进
核心框架
现代图像生成主要由三类扩散理论支撑:
- Denoising Diffusion Probabilistic Models (DDPMs)
- Score-Based Generative Models
- Score-Based SDEs
代表模型:DALL-E3、Imagen 3、Midjourney、Stable Diffusion。
它们普遍与大型语言模型(LLMs,如 GPT-4)协同,利用自然语言提示词实现可控的视觉生成(控制色彩、风格、构图等)。
检测数据集演进
| 阶段 | 特点 | 代表数据集 |
|---|---|---|
| 早期(GAN 时代) | 伪迹明显,侧重空间域检测 | 传统 GAN 样本集 |
| 扩散模型时代 | 高逼真度、伪迹弱化、提示词多样 | DiffusionDB, GenImage |
| 新一代基准 | 多模型、多域、多压缩、多提示词优化 | Wildfake, HiFi-IFDL, Chameleon |
Chameleon 数据集尤为重要——由高质量提示词生成,经人工筛选与风格多样化,常用于“抗检测”评估,是当前最具挑战性的扩散检测基准。
外部检测
-
特征融合与检测模型
-
从传统空间-频域特征融合发展为多尺度 + 多模态检测;
-
越来越多方法使用预训练特征(如 CLIP、DINO)来提升跨域泛化;
-
检测模型逐渐模块化,结合局部伪迹与全局语义一致性分析。
-
-
篡改定位与主动取证
- 检测任务由“真伪分类”扩展为“伪造区域定位”;
- 典型方法 TruFor 同时建模语义内容与相机指纹;
- EditGuard(CVPR 2024)提出**“主动取证”**:在生成阶段嵌入不可见水印,实现篡改可追溯性与版权保护。
-
模型归因(Model Attribution)
-
目标:不仅识别“真伪”,还要确定“由哪个模型生成”;
-
方法发展:
- 指纹识别(如 DE-FAKE, SemGIR)——提取模型内在伪迹;
- 训练数据归因(Data Attribution)——追踪生成内容与训练样本间的因果关系;
- 主动水印溯源(ProMark, CVPR 2024)——通过扩散过程中的因果链实现可验证的生成来源
- 模型谱系追踪——分析微调模型与底座模型之间的继承关系。
-
-
扩散模型检测(Diffusion Model Detection)
- 挑战:扩散模型极高逼真度导致传统检测失效;
- 特征方向:
- 频域伪迹(Diffusion 模型仍存在可检测微特征);
- 重建误差(LaRE, DIRE):比较输入图像与其扩散模型重建之间的差异;
- 多专家系统 + VLM(Vision-Language Model)协同提升跨域泛化;
- Chameleon 数据集揭示了检测器对新分布失效的问题,促使研究向“通用多模态检测”演进
内部检测
- 幻觉检测与抑制(Hallucination)
- 问题:生成图像出现不符合物理或语义事实的成分;
- 检测方法:
- 早期基于监督数据集;
- 新兴无监督框架(利用 LLM 大规模未标注样本);
- 量化模型内部不确定性以识别虚构内容;
- 缓解策略:
- 调整注意力分布,使生成更依赖视觉证据;
- 引入外部知识或对比学习进行约束
- 偏差检测(Bias)
- 从文本偏差方法扩展到多模态领域;
- 通过数据再标注、参数高效微调(PEFT)及显式透明偏差建模,提升模型公平性
视频生成与取证
生成技术与代表模型
发展脉络:
- 从基于图像的序列生成(Make-A-Video, EMU-Video);
- 到具备跨帧一致性的 Video-LLaMA、SVD;
- 再到 OpenAI Sora (2024),实现物理合理、时间连续的视频生成;
- 后续 Veo、Gen-3、Vidu、Kling 等进一步提升分辨率与物理一致性。
核心架构:Diffusion Transformer (DiT)。
检测数据与评测
| 阶段 | 特征 | 典型数据集 |
|---|---|---|
| Deepfake 时代 | 局部换脸或篡改 | FaceForensics++, DFDC, Celeb-DF |
| 端到端生成时代 | 从零合成、跨模态一致性 | GenVidBench 等 |
外部检测
- 特征建模与时空一致性
问题:静态帧检测忽略时间伪迹;
方法演化:
MSVT:多尺度时空特征融合;
UNITE:通用视频伪造检测;
Style Latent Flow(CVPR 2024)捕获时间维度的风格变化
M2TR:多模态多尺度 Transformer 提取跨帧一致性特征
- 多任务与多层检测
- 结合帧级与视频级预测;
- 辅助任务(伪造定位)提升主任务鲁棒性;
- 多模态融合(音视频同步):AVT2-DWF 引入动态加权的音视频特征融合策略
- 修复-再检测
- 对压缩、噪声等破坏性预处理先“修复”,再检测;
- DF-UDetector 采用特征恢复机制增强对低质视频鲁棒性;
- Motion Magnification(WACV 2024)放大亚像素运动差异,以揭示隐藏伪迹
内部检测
- 幻觉检测与一致性评估
- Sora Detector(2024)实现统一的文本-视频幻觉检测框架;
结合 多模态大模型 (MLLM) 与 知识图谱,衡量视频内容与文本提示的一致性; - 研究使用“等义扰动提示”的预测方差衡量模型幻觉强度;
- 缓解方法:
- Temporal Contrastive Decoding:通过时间对比学习增强物理一致性;
- 视觉再加权:使用 DINOv2 显著图在推理阶段重调注意力;
- 强化学习(GRPO)显式注入物理与常识约束。
- 偏差检测与公平性
- 检测器公平性:
- HODFF-DD 保证不同种族、光照条件下检测稳定;
- MMVD 聚焦多模态假新闻检测中的偏差传播;
- 生成架构公平性:
- LLaVA-MLB 通过网格注意力池化均衡时空表示
趋势与启示
| 层面 | 图像 | 视频 |
|---|---|---|
| 主流检测特征 | 空间 + 频域 + 重建误差 + 模型指纹 | 时序一致性 + 声画同步 + 运动伪迹 |
| 最新方法 | 多专家系统、VLM 联合 | 多任务协同、修复-再检测 |
| 内部治理 | 幻觉检测与注意力再加权 | 物理一致性、跨模态幻觉评估 |
| 研究方向 | 主动水印 + 数据归因 | 时空一致性 + 多模态公平性 |
未来研究方向总结
- 跨模态统一检测框架:建立文本-图像-视频一致性判定机制,实现端到端 AIGC 溯源。
- 主动水印与因果链追踪: 结合生成模型结构嵌入可验证水印,形成内容-模型-数据三层可追溯关系。
- 鲁棒性与泛化: 针对后处理、压缩、平台噪声的稳健检测;对未知生成器的零样本泛化。
- 幻觉量化与可解释性: 统一度量标准(不确定度/一致性分数),强化可解释可视化取证。
- 公平性与责任评测: 建立标准化基准:分群检测性能 + 偏差透明化报告机制。
在扩散模型主导的生成时代,AIGC取证的重心正从伪迹识别转向一致性验证与责任溯源——即从被动防御到主动治理。