展會信息港展會大全

                          科技20年大預測:Deepfake和AI安全漏洞|創觀點
                          來源:互聯網   發布日期:2022-06-10 15:14:54   瀏覽:40919次  

                          導讀:近期, 創新工場董事長兼首席執行官李開復博士 ,聯合 科幻作家陳楸帆 ,出版了新書 《AI未來進行式》 ,創造性地將科技與科幻融合,暢想了 20 年后在人工智能等科技影響下的人類世界。 作為 深耕硬科技的 Deep Tech VC ,創新工場投資的很多硬科技藍圖,在...

                          近期,創新工場董事長兼首席執行官李開復博士,聯合科幻作家陳楸帆,出版了新書《AI未來進行式》,創造性地將科技與科幻融合,暢想了 20 年后在人工智能等科技影響下的人類世界。

                          作為深耕硬科技的 Deep Tech VC,創新工場投資的很多硬科技藍圖,在書中得到了來自未來的成熟應用場景展現。書中的 10 個短篇故事,展示了一系列的未來場景 身臨其境的沉浸式娛樂方式、自如使用人類語言的虛擬伴侶、 沒有“司機”的完全自動駕駛汽車、能夠以假亂真的照片和視頻,以及基于量子計算、計算機視覺和其他 AI 技術的展開應用……

                          《假面神祗》講述了一個利用技術手段欺騙人類視覺的故事。故事圍繞西非尼日利亞的一個視頻制作者展開,此人被招募來制作一段真假難辨的Deepfake(深度偽造)視頻。如果他成功地做到瞞天過海,將引發災難性的后果。

                          科技20年大預測:Deepfake和AI安全漏洞|創觀點

                          如果 AI 不僅可以看見、識別物體,還能對其加以理解及合成,那么就可以巧妙利用這些能力,創造出讓人們無法分辨真偽的圖像和視頻。

                          那么,AI 是如何(通過攝像頭和預先錄制好的視頻)掌握“看”這項能力的?一旦能看,將出現什么樣的應用?基于 AI 的 Deepfake 究竟是如何實現的?人類或AI能夠看穿 Deepfake 的真面目嗎?怎樣才能阻止 Deepfake 的濫用?AI技術還存在哪些安全漏洞?

                          1

                          Deepfake的火爆

                          “特朗普是個徹頭徹尾的白癡。”在一段視頻里,奧巴馬這樣說道。

                          這段視頻里的奧巴馬,無論是聲音、相貌還是表情,都跟真正的奧巴馬非常相似。

                          2018年末,美國演員喬丹皮爾(Jordan Peele)與新聞聚合網站 BuzzFeed 合作,“自編自導”制作的這樣一段“假”的 Deepfake 視頻,迅速在網絡上傳播開,整段視頻看起來沒有絲毫的違和感。

                          制作這段視頻的初衷是向人們發出警告:Deepfake 內容很快就會走進我們的日常生活。

                          Deepfake似乎在一夜之間就火爆了起來。任何人都可以用它制作一段“假”視頻,雖然視頻的質量可能比較業余,會讓人看出端倪,可是這并不妨礙 Deepfake 的流行與普及。

                          但換個角度來考慮,這也意味著,在我們的世界里,未來的所有數字信息都有被偽造的可能。無論是線上的視頻、錄音,還是安保攝像頭拍攝的畫面,甚至法庭上的視頻證據,都有可能是假的。

                          Deepfake 換臉術建立在一種名為生成式對抗網絡(GAN)的技術基礎之上。顧名思義,GAN 是由一對互相對抗(博弈)的網絡組成的深度學習神經網絡。

                          其中的一個網絡名為生成式網絡,負責嘗試生成一些看起來很真實的東西,例如基于數百萬張狗的圖片,合成一張虛構的狗的圖片。另一個網絡名為判別式網絡,它會把生成式網絡所合成的狗的圖片與真實的狗的圖片進行比較,確定生成式網絡的輸出是真是假。

                          第一篇有關 GAN 的論文發表于 2014 年。這篇論文展示了 GAN 的“對抗”過程生成式網絡首先合成了一個非?蓯鄣强雌饋砗芗俚“小狗球”(dogball)的圖片,然后很快被判別式網絡判定為“假”,接著生成式網絡逐步學會了“偽造”讓人很難區分真偽的狗的圖片。目前,GAN 技術已經被應用于視頻、演講和許多其他形式的內容之中。

                          那么,以 GAN 技術為基礎的 Deepfake 視頻會被識破嗎?目前大多數 Deepfake 視頻都可以被算法檢測到,有時甚至人眼就可以辨別出來,原因在于,這些視頻在制作時使用的算法還不夠完善,而且沒有足夠的算力做支撐。

                          長遠來看,阻止 Deepfake 的最大難點其實在于 GAN 的內在機制生成式網絡和判別式網絡會在一次次“博弈”之后攜手升級。舉個例子,我們構建了一個生成式網絡,這時有人構建了一個判別式網絡,它能夠檢測出我們的網絡所生成的結果是“假”的,那么我們就可以把愚弄新的判別式網絡作為目標,重新訓練我們的生成式網絡,這樣就會激發判別式網絡重新進行訓練……這個循環發展到最后將成為一場軍備競賽,比的是哪一方能夠用更強的算力訓練出更好的模型。

                          在《AI未來進行式》中我預測,到 2042 年,針對 Deepfake 視頻的防偽軟件將成為類似于殺毒軟件的存在。政府網站和官方新聞網站上對信息的真實度要求非常高,所以會設置強度最高的防偽檢測器,以甄別網站上是否有由強大算力訓練而成的 GAN 生成的高質量偽造視頻。

                          難道就沒有檢測準確率能夠達到 100% 的防偽檢測器嗎?這在未來并非無法實現,只不過可能需要采用一種完全不同的檢測方法每臺設備在捕捉視頻或照片時,就對每段視頻和每張照片進行認證,用區塊鏈保證它是原版的,絕對沒有經過篡改。

                          然而,在2042年,這種“高級”的方法還無法落地,因為這種方法落地的前提之一是,讓所有電子設備都部署上區塊鏈技術。此外,區塊鏈技術必須實現突破,才能處理這么大規模的內容。

                          其實除了制作 Deepfake 換臉視頻,GAN也可以用于做一些更有建設性的工作,例如讓照片中的人物變年輕或者變老、為黑白電影及照片上色、讓靜態的畫作(例如《蒙娜麗莎》)動起來、提高分辨率、檢測青光眼、預測氣候變化帶來的影響,甚至發現新藥。

                          我們不能把 GAN 和 Deepfake 畫上等號,因為這項技術的積極影響將遠遠超過其負面影響,絕大多數新出現的突破性技術也都是如此。

                          2

                          生物特征識別與AI安全

                          生物特征識別是利用人體固有的生理特征來進行個人身份鑒定的一個研究領域。

                          目前,虹膜識別是被大眾認可的最為精準的生物特征識別方法。虹膜識別是在紅外線的照射下捕捉并記錄一個人的虹膜信息,然后將其與預先存儲的虹膜特征進行比對。指紋識別的準確率也非常高。不過,由于虹膜識別和指紋識別都離不開特定的近場傳感器裝置的輔助與配合,所以對鑒別真偽視頻無法發揮作用。

                          科技20年大預測:Deepfake和AI安全漏洞|創觀點

                          近年來,隨著深度學習與 GAN 技術的突飛猛進,生物特征識別領域的研究也有了蓬勃的發展。在識別及鑒定任何單一維度的生物特征(例如人臉識別或語者聲音識別)方面,AI 的準確率已經超過了人類的平均水平;在綜合考量多維度生物特征的情況下,AI 的識別準確度已經趨于完美。

                          隨著技術的不斷進步,任何計算平臺都可能出現漏洞及安全隱患,例如電腦病毒、信用卡盜用和垃圾電子郵件等。而且,隨著 AI 的普及,AI 本身也將暴露出各種漏洞并遭到各方的攻擊,Deepfake 反映出的只是其中的一個漏洞而已。

                          專門設計的對抗性輸入是針對 AI 系統的攻擊方法之一。攻擊者將挑戰 AI 系統的決策邊界,并借此調整對 AI 系統的輸入,進而達到讓 AI 系統出錯的目的。例如有研究人員在路面上貼了一些貼紙,成功愚弄了特斯拉 ModelS 型車上的自動駕駛系統,讓其決定轉換車道,直接開向迎面駛來的車輛。試想,如果有人把類似的攻擊手段應用在軍事領域,那么后果將不堪設想。

                          還有一種攻擊 AI 系統的方法是對數據“下毒”:攻擊者通過“污染”訓練數據、訓練模型或訓練過程,來破壞 AI 系統的學習過程。這可能導致整個AI系統徹底崩潰,或者被犯罪者控制。

                          與傳統的黑客攻擊相比,對數據“下毒”的攻擊手段更難被人類察覺。問題主要出在 AI 系統架構上面模型中的復雜運算全部在成千上萬層的神經網絡中自主進行,而不是按照確切代碼的指引進行的,所以 AI 系統先天就具有不可解釋性,也不容易被“調試”。

                          科技20年大預測:Deepfake和AI安全漏洞|創觀點

                          盡管困難重重,但我們仍然可以采取明確的措施來阻止上述情況發生。例如,加強模型訓練及執行環境的安全性,創建自動檢查“中毒”跡象的工具,以及開發專門用于防止篡改數據或與其類似的規避手段的技術。

                          正如我們過去通過技術創新攻克了垃圾郵件、電腦病毒等一道道關卡一樣,我深信技術創新也能大大提高未來 AI 技術的安全性,盡量減少給人類帶來的困擾。畢竟,解鈴還須系鈴人。技術創新所帶來的問題,最終還是要依靠新的技術創新來進行改善或徹底解決。

                          ……

                          贊助本站

                          人工智能實驗室
                          AiLab云推薦
                          展開
                          Copyright © 2010-2022 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯系我們 | 廣告服務 | 公司動態 | 免責聲明 | 隱私條款 | 工作機會 | 展會港 | 站長號
                          停...不要...别揉了动态图