《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 通信與網(wǎng)絡(luò) > 業(yè)界動態(tài) > 換臉、換聲音——Deepfake技術(shù)足以做到以假亂真

換臉、換聲音——Deepfake技術(shù)足以做到以假亂真

2021-10-27
來源:祺印說信安
關(guān)鍵詞: 換臉 換聲音

  在人們的心目中,銀行是一個管理制度嚴(yán)格、工作細(xì)致嚴(yán)謹(jǐn)?shù)牡胤?。我們?jīng)常會聽到銀行職員成功阻止了某位老年人向詐騙分子巨額轉(zhuǎn)賬等類似報道。然而這一次,阿聯(lián)酋一家銀行卻被一個利用“深度偽裝(Deepfake)”技術(shù)的詐騙團(tuán)伙騙取了3500萬美元的資金。

  事件始末

  2020年初,阿聯(lián)酋的一位銀行經(jīng)理接到了一家大公司董事打來的電話。該董事聲稱其所在的公司正在進(jìn)行一項(xiàng)大型收購,所以需要這家銀行授權(quán)向美國的幾個賬戶轉(zhuǎn)賬3500萬美元,并表示已經(jīng)發(fā)送一封來自律師的電子郵件來確認(rèn)這筆轉(zhuǎn)賬。該銀行經(jīng)理能夠分辨出這位董事的聲音,因?yàn)樗麄冎敖徽勥^,并且在收件箱中看到了來自董事和律師的電子郵件,他認(rèn)為一切程序看起來都是合法的,于是確認(rèn)了這筆轉(zhuǎn)賬。

  然而這位大公司的“董事”的聲音實(shí)際上是詐騙團(tuán)伙利用一種名為“深度偽裝(Deepfake)”的人工智能技術(shù)合成的,聽起來很像本人的聲音。阿聯(lián)酋有關(guān)部門目前正在尋求美國警方的幫助,以追回丟失的資金。據(jù)悉,這些資金已被詐騙分子轉(zhuǎn)移到他們在全球各地的至少17個賬戶上。

  這并不是Deepfake語音技術(shù)第一次被用于網(wǎng)絡(luò)詐騙犯罪。無獨(dú)有偶,2019年3月,一家總部位于德國的英國能源公司的管理者也曾被Deepfake技術(shù)所騙,損失了約25萬美元。詐騙團(tuán)伙利用Deepfake技術(shù)生成了德國母公司CEO的聲音,并命令英國分公司的經(jīng)理緊急匯款??尚Φ氖?,攻擊者在第一次詐騙成功得手后,故技重施,兩天后再次給這名經(jīng)理打電話,并指示其追加10萬美元匯款。但這次,英國分公司經(jīng)理察覺到了一些可疑之處,并阻止了再次被騙。

  何為Deepfake技術(shù)

  到底什么是Deepfake技術(shù)?這種技術(shù)為什么如此厲害,連銀行經(jīng)理、公司高管都會被蒙騙上當(dāng)?

  Deepfake是由“deep machine learning”(深度機(jī)器學(xué)習(xí))和“fake photo”(假照片)組合而成,本質(zhì)是一種深度學(xué)習(xí)模型在圖像合成、替換領(lǐng)域的技術(shù)框架,屬于深度圖像生成模型的一次成功應(yīng)用。

  其實(shí)該技術(shù)的最初版本在2017年底就被提出了,當(dāng)時在構(gòu)建模型的時候使用了Encoder-Decoder自編解碼架構(gòu),在測試階段通過將任意扭曲的人臉進(jìn)行還原,整個過程包含了:獲取正常人臉照片—>扭曲變換人臉照片—> Encoder編碼向量—> Decoder解碼向量—> 還原正常人臉照片五個步驟。后來,在Encoder-Decoder的框架之上,又引入了GAN(生成對抗網(wǎng)絡(luò))技術(shù),不但降低了同等條件下的模型參數(shù)量和模型復(fù)雜度,同時使生成的人臉更為清晰,大大降低了對原圖的依賴,顯著提升了換臉的效果,從而形成了目前基于GAN技術(shù)的Deepfake改進(jìn)版。

  簡而言之,只要提供足夠多的照片或聲音素材,Deepfake就能夠?qū)崿F(xiàn)以假亂真的變臉或變聲,還自帶動態(tài)捕捉,可以直接在視頻甚至實(shí)時影像中進(jìn)行面部更換。

  Deepfake技術(shù)被濫用究竟有何威脅?

  每項(xiàng)新技術(shù)的產(chǎn)生都具有兩面性。一方面,Deepfake技術(shù)應(yīng)用在影視文化行業(yè)等領(lǐng)域的想象空間極大;另一方面,利用Deepfake技術(shù)實(shí)施詐騙、用于政治爭斗和誹謗他人等,使該技術(shù)從誕生之初就伴隨著肖像權(quán)、版權(quán)和倫理層面的爭論。

  一是用于網(wǎng)絡(luò)詐騙

  就像前面提到的這兩起網(wǎng)絡(luò)詐騙事件一樣,預(yù)計(jì),今后網(wǎng)絡(luò)犯罪分子將會積極利用Deepfake技術(shù)實(shí)施詐騙活動。在使用 Deepfake技術(shù)制作的視頻中,可能會檢測到細(xì)微的奇怪之處,但以目前的技術(shù)水平生成的聲音文件與真實(shí)聲音非常相似,真假難辨。

  安全公司Cato Networks的網(wǎng)絡(luò)安全高級主管伊泰·毛爾(Etay Maor)表示:“目前已經(jīng)出現(xiàn)了很多類似Deepfake技術(shù)這種可以生成深度偽裝語音的開源工具。網(wǎng)絡(luò)犯罪分子的目的是賺錢。只要能賺錢,他們愿意肆無忌憚地學(xué)習(xí)和使用任何新技術(shù)。如果Deepfake技術(shù)被反復(fù)用于這種大規(guī)模的詐騙技術(shù),那么這些開源工具也將會如此,攻擊者沒有理由不使用它們。雖然Deepfake技術(shù)合成的視頻尚不完善,但語音合成技術(shù)已經(jīng)足夠成熟,且使用起來并不難?!?/p>

  二是用于政治目的

  在Deepfake技術(shù)剛出現(xiàn)時,專家們就擔(dān)心它們會被惡意用于政治活動中。也就是說,他們擔(dān)心別有用心者模仿政客的臉和聲音制作出虛假視頻,散布不負(fù)責(zé)任的言論,從而引發(fā)社會轟動。

  2018年4月,美國網(wǎng)絡(luò)媒體Buzzfeed在Youtube上上傳了一條視頻,令人大吃一驚。視頻的內(nèi)容是前任美國總統(tǒng)奧巴馬辱罵時任美國總統(tǒng)特朗普。在該視頻中,前美國總統(tǒng)奧巴馬稱特朗普是個十足的笨蛋。其實(shí),這是Buzzfeed為了警示人們Deepfake技術(shù)的危險性而與電影導(dǎo)演喬丹·皮爾(Jordan Peele)一同制作的視頻。該視頻制作得十分巧妙,一般人很難辨別其真?zhèn)?。因此?如果Buzzfeed沒有公開該視頻的真實(shí)意圖,此事件將會引起軒然大波。

  三是用于誹謗他人

  利用女明星、成功人士等公眾人物的臉制作虛假色情視頻等進(jìn)行惡意炒作并引發(fā)關(guān)注,這是Deepfake技術(shù)的慣用伎倆,任何熟悉互聯(lián)網(wǎng)的人都不會對此感到驚訝。2019年10月,荷蘭網(wǎng)絡(luò)安全公司Deep trace發(fā)布了一份統(tǒng)計(jì)報告顯示,利用Deepfake技術(shù)制作的視頻中96%都涉及色情,并且大部分受害者都是娛樂圈女星。

  四是損害大眾的信任

  Deepfake技術(shù)可能構(gòu)成的最大威脅是,它們的存在令人們對合法視頻和真實(shí)新聞增加了一份不信任感。Deepfake技術(shù)具有前所未有的篡改內(nèi)容的能力,這對消費(fèi)者、品牌方、決策者、政治家和所有作為信息提供者的媒體蒙上了一層“不信任”的陰影。并且隨著AI和深度學(xué)習(xí)技術(shù)的不斷發(fā)展,虛假音視頻的制作也將變得更加容易、更為“真實(shí)”。因此,Deepfake技術(shù)破壞信任和傳播假消息的潛力也前所未有地增強(qiáng)了。

  我們該如何預(yù)防此類詐騙

  此次阿聯(lián)酋銀行詐騙事件不是Deepfake語音技術(shù)第一次被用于網(wǎng)絡(luò)詐騙犯罪,也不會是最后一次。類似的事件將來還會發(fā)生,而且規(guī)??赡軙?。那么,我們該如何預(yù)防呢?

  引入零信任

  安全公司Cato Networks的網(wǎng)絡(luò)安全高級主管伊泰·毛爾將這兩次利用Deepfake技術(shù)成功詐騙的事件描述為“最終與信任相關(guān)的事件”。他表示:“對于冒充認(rèn)識的人發(fā)送電子郵件要錢和直接打電話要錢的人來說,這是兩件完全不同的事情。因?yàn)檎Z音中包含的信息比文字多得多,除了說話的內(nèi)容外,還有聲音的音色、語調(diào)、語氣等其他信息。如果連這些信息都和原始信息相似,則它更有可能被信任。沒有人能不上當(dāng)受騙?!?/p>

  毛爾認(rèn)為,在Deepfake技術(shù)變得如此普遍的當(dāng)下,別無他選,只能在所有環(huán)境下引入零信任。毛爾強(qiáng)調(diào):“這不只是與引入新技術(shù)或最新技術(shù)相關(guān)要素的問題,而是必須在我們所有的情況和環(huán)境下建立一種‘確認(rèn)并相信’的文化?!?/p>

  運(yùn)用人工智能識別

  有專家認(rèn)為,由于Deepfake技術(shù)仍在不斷改進(jìn),最終會變得更加強(qiáng)大,以至于人類無法正確識別。但經(jīng)過訓(xùn)練的人工智能可能會識別出深度偽造的行為,因?yàn)榭寺∈芎φ叩拿婵缀吐曇敉恍╁e誤,例如數(shù)字噪音或人類不可能發(fā)出的一些聲音等。

  加強(qiáng)個人信息保護(hù)

  有人認(rèn)為,現(xiàn)在只需要5分鐘的樣本音頻,即可制造出合成語音;但也有部分人持不同意見,認(rèn)為至少需要2至3個小時的音頻樣品,才能合成出像樣的深度假聲。這可能僅是一種對判斷Deepfake聲音的完成度存在分歧而已,歸根結(jié)底,虛假音視頻的制作都必須以一定數(shù)量原聲素材為基礎(chǔ)。只要我們注意保護(hù)好個人信息,不要將個人的音視頻資料外泄,就會降低被利用的風(fēng)險。

  立法保護(hù)

  僅在技術(shù)層面打擊這一技術(shù)的濫用是不夠的,我們還需要法律的支持。我國《民法典》之人格權(quán)編規(guī)定,任何組織或者個人不得以丑化、污損,或者利用信息技術(shù)手段偽造等方式侵害他人的肖像權(quán)。這意味著即便沒有營利目的和主觀惡意,未經(jīng)本人同意的AI換臉和模仿聲音同樣有可能構(gòu)成侵權(quán)。

  另外,我國《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》中,作為網(wǎng)絡(luò)視頻規(guī)范強(qiáng)化的要點(diǎn),明確規(guī)定利用Deepfake或假想現(xiàn)實(shí)等技術(shù)進(jìn)行的虛假音視頻傳播的行為是非法的。




電子技術(shù)圖片.png

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。