深度偽造偵測的軍備競賽正在加速——防禦方正在失地 2024 年 1 月,一名跨國公司在香港的財務員工,在參加了一場視訊會議後,向詐騙者轉帳了 2,500 萬美元。該會議中,包括公司 CFO 在內的所有其他參與者都是 deepfake。這宗事件當時是史上錄得最昂貴的 deepfake 詐騙案。然而,以 2026 年的標準來看,這已不再令人驚訝。技術不斷進步,工具變得更便宜、更容易取得,而 AI 生成內容與偵測系統識別能力之間的差距也顯著擴大。

AI Forensics Institute 本週發布的一份新報告,以不同尋常的坦率,記錄了目前深度偽造偵測領域的現況。該報告的核心發現令人震驚:在真實世界條件下,現有最佳的商業偵測工具,正確識別 AI 生成影片內容的準確率約為 65%。而最佳的生成工具所製作的內容,愚弄人類觀察者的機率約為 85%。這種不對稱現象並非新鮮事,但正在加劇。

Data Visualization

Deepfake Detection Accuracy vs. Generation Quality (2022-2026)

202220232024202520260255075100
  • detection
  • generation
隨著生成品質的提升,偵測準確度正在下降(欺騙人類觀察者的百分比)

深度偽造(deepfake)偵測的軍備競賽正在加速——防禦方正在失地。 造成這種不對稱的技術原因眾所周知。偵測系統被訓練來識別特定的人工痕跡——例如光線不一致、不自然的眨眼模式、髮際線周圍的細微扭曲——這些都是當前生成系統輸出的特徵。但生成系統在某種程度上也被訓練來避免這些人工痕跡。結果就是一個典型的對抗動態:偵測能力的每一次改進,最終都會被生成技術的改進所追平,而偵測系統總是處於追趕的狀態。

"偵測本質上是被動的。你只能偵測你已知要尋找的偽影,而生成器則不斷產生新的偽影。我們正處於一場純粹從技術層面來看無法取勝的競賽中。"

— Lead researcher, AI Forensics Institute

這影響遠不止於金融詐騙。多個國家在2026年的選舉週期中,出現了大量描繪候選人說出他們從未說過的話的合成媒體。在一些案例中,deepfake 影片在被識別為合成內容之前,已被分享了數百萬次。而當識別出來時,其觸及的受眾僅為原始受眾的一小部分。修正問題——即虛假資訊比修正內容傳播得更快更廣的普遍現象——在虛假資訊是影片時會顯著放大。

數家科技公司已提出技術解決方案來應對來源問題。C2PA 標準現已獲得 Adobe、Microsoft、Google 和數家主要相機製造商的支持,它能在內容創建時嵌入加密簽章。經過大幅修改的內容,其簽章將會損壞或缺失。這種方法解決了由符合規範的設備和軟體所創建內容的來源問題,但對於由不符合規範的工具(包括目前所有的 deepfake 生成系統)所創建的內容則無能為力。

AI Forensics Institute 的報告建議結合技術、法律和社會層面的方法。在技術層面,報告呼籲增加對偵測研究的投資,並將偵測工具免費提供給記者、選舉官員和公民社會組織。在法律層面,報告建議對利用 deepfakes 進行金融詐騙和干預選舉的行為處以刑事罰款,並對明知故犯地託管合成媒體卻不披露的平台追究民事責任。在社會層面,報告呼籲推廣媒體素養教育,幫助人們了解他們直覺判斷合成內容能力的局限性。

這些建議都不是新鮮事,而建議與實施之間的差距仍然很大。改變的是其迫切性。這項技術不再是理論性或實驗性的——它已被部署、可供使用,並被大規模地用於造成傷害。如果曾經有機會領先於這個問題,那個機會之窗正在迅速關閉。