美國國防部研發(fā)第一批發(fā)現(xiàn)人工智能換臉技術(shù)DeepFakes的工具

責(zé)任編輯:zsheng

2018-08-10 09:26:53

摘自:cnBeta.COM

據(jù)外媒Techspot報道,美國國防部已經(jīng)通過其開展的一項計劃研發(fā)出第一批用于發(fā)現(xiàn)報復(fù)色情內(nèi)容和用人工智能創(chuàng)建的假新聞的取證工具。眾所周知,Deepfakes是使用機器學(xué)習(xí)在視頻中將一個人的臉部疊加到另一個人臉部的技術(shù)。它已經(jīng)被用來制作名人的假色情視頻,并且通過正確的編輯,它可以完全令人信服。

據(jù)外媒Techspot報道,美國國防部已經(jīng)通過其開展的一項計劃研發(fā)出第一批用于發(fā)現(xiàn)報復(fù)色情內(nèi)容和用人工智能創(chuàng)建的假新聞的取證工具。眾所周知,Deepfakes是使用機器學(xué)習(xí)在視頻中將一個人的臉部疊加到另一個人臉部的技術(shù)。它已經(jīng)被用來制作名人的假色情視頻,并且通過正確的編輯,它可以完全令人信服。

然而,一些麻煩制造者也可以利用這些技術(shù)來制造宣傳虛假事件,欺騙大眾。出于這個原因,美國國防部一直非常有興趣開發(fā)能夠檢測甚至打擊這種虛假鏡頭的工具。,《麻省理工科技評論》(MIT Technology Review)報道稱,這些工具中的第一個已通過名為Media Forensics 的美國國防高級研究計劃局(DARPA)計劃推出。該計劃最初是為了自動化現(xiàn)有的取證工具而創(chuàng)建的。然而,該計劃已將重點轉(zhuǎn)移到開發(fā)打擊“AI制造偽造內(nèi)容”的方法上。

創(chuàng)建DeepFakes的最有說服力的方法是使用深度學(xué)習(xí)模型生成式對抗網(wǎng)絡(luò)(GAN)。為了使它工作,GAN必須使用被偽造者的幾張圖像。然后,它使用這些圖像來嘗試匹配疊加在其上的面部的角度和傾斜。“我們在當(dāng)前GAN操縱的圖像和視頻中發(fā)現(xiàn)了微妙的線索,使我們能夠檢測到變化的存在,”Media Forensics項目負(fù)責(zé)人Matthew Turek表示。

紐約州立大學(xué)的Siwei Lyu教授講述了他和一些學(xué)生如何創(chuàng)造了一堆虛假視頻,試圖了解傳統(tǒng)的取證工具將如何工作。

“我們制作了大約50個假視頻并嘗試了一系列傳統(tǒng)的取證方法。”然而,在他們的實驗過程中,他們很少注意到deepfakes。此外,在極少數(shù)情況下,這種運動看起來“不自然”。原因很簡單; GAN被輸入靜止圖像,幾乎所有對象的眼睛都是打開的。

因此,Lyu和他的紐約州立大學(xué)學(xué)生正專注于創(chuàng)建一個尋找這個告示標(biāo)志的AI。他說表示們目前的努力是有效的,但可以通過提供測試圖像眨眼的GAN圖像來欺騙他們。然而,他補充說,他們在作品中有一種秘密技術(shù),甚至更有效。

參與DARPA計劃的其他團體的目標(biāo)是采用類似的技術(shù)。達特茅斯學(xué)院的數(shù)字取證專家Hany Farid認(rèn)為,奇怪的頭部動作、奇怪的眼睛顏色和其他面部因素等其他線索可以幫助確定視頻是否被偽造。

Farid表示:“我們正在努力開發(fā)這些類型的生理信號,至少目前,這些信號很難被模仿。”

Turek稱,DARPA打算繼續(xù)舉辦Media Forensics競賽,以確保該領(lǐng)域在進一步發(fā)展時能夠跟上偽造技術(shù)。

鏈接已復(fù)制,快去分享吧

企業(yè)網(wǎng)版權(quán)所有?2010-2024 京ICP備09108050號-6京公網(wǎng)安備 11010502049343號