歷史表明,網(wǎng)絡(luò)安全威脅隨著新的技術(shù)進(jìn)步而增加。關(guān)系數(shù)據(jù)庫(kù)帶來(lái)了SQL注入攻擊,Web腳本編程語(yǔ)言助長(zhǎng)了跨站點(diǎn)腳本攻擊,物聯(lián)網(wǎng)設(shè)備開辟了創(chuàng)建僵尸網(wǎng)絡(luò)的新方法。而互聯(lián)網(wǎng)打開了潘多拉盒子的數(shù)字安全弊病,社交媒體創(chuàng)造了通過(guò)微目標(biāo)內(nèi)容分發(fā)來(lái)操縱人們的新方法,并且更容易收到網(wǎng)絡(luò)釣魚攻擊的信息,比特幣使得加密ransowmare攻擊成為可能。類似的威脅網(wǎng)絡(luò)安全的方法還在不斷產(chǎn)生。關(guān)鍵是,每項(xiàng)新技術(shù)都會(huì)帶來(lái)以前難以想象的新安全威脅。
最近,深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)在支持各種行業(yè)的技術(shù)方面變得非常突出。從內(nèi)容推薦到疾病診斷和治療以及自動(dòng)駕駛,深度學(xué)習(xí)在做出關(guān)鍵決策方面發(fā)揮著非常重要的作用。
現(xiàn)在我們所面臨的問(wèn)題是,知道神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)算法所特有的安全威脅是什么?在過(guò)去幾年中,我們已經(jīng)看到了惡意行為者開始使用深度學(xué)習(xí)算法的特征和功能來(lái)進(jìn)行網(wǎng)絡(luò)攻擊的示例。雖然我們?nèi)匀徊恢篮螘r(shí)會(huì)出現(xiàn)大規(guī)模的深度學(xué)習(xí)攻擊,但這些例子可以說(shuō)成是將要發(fā)生事情的序幕。
你應(yīng)該知道
深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)可用于放大或增強(qiáng)已存在的某些類型的網(wǎng)絡(luò)攻擊。例如,你可以使用神經(jīng)網(wǎng)絡(luò)在網(wǎng)絡(luò)釣魚詐騙中復(fù)制目標(biāo)的寫作風(fēng)格。正如DARPA網(wǎng)絡(luò)大挑戰(zhàn)在2016年所展示的那樣,神經(jīng)網(wǎng)絡(luò)也可能有助于自動(dòng)發(fā)現(xiàn)和利用系統(tǒng)漏洞。但是,如上所述,我們專注于深度學(xué)習(xí)所特有的網(wǎng)絡(luò)安全威脅,這意味著在深度學(xué)習(xí)算法進(jìn)入我們的軟件之前,它們不可能存在。我們也不會(huì)涵蓋算法偏見和神經(jīng)網(wǎng)絡(luò)的其他社會(huì)和政治含義,如操縱選舉。要研究深度學(xué)習(xí)算法的獨(dú)特安全威脅,首先必須了解神經(jīng)網(wǎng)絡(luò)的獨(dú)特特征。
什么使深度學(xué)習(xí)算法獨(dú)一無(wú)二?
深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)子集,機(jī)器學(xué)習(xí)是一個(gè)人工智能領(lǐng)域,其中軟件通過(guò)檢查和比較大量數(shù)據(jù)來(lái)創(chuàng)建自己的邏輯。機(jī)器學(xué)習(xí)已存在很長(zhǎng)時(shí)間,但深度學(xué)習(xí)在過(guò)去幾年才開始流行。
人工神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)算法的基礎(chǔ)結(jié)構(gòu),大致模仿人類大腦的物理結(jié)構(gòu)。與傳統(tǒng)的軟件開發(fā)方法相反,傳統(tǒng)的程序員精心編寫定義應(yīng)用程序行為的規(guī)則,而神經(jīng)網(wǎng)絡(luò)通過(guò)閱讀大量示例創(chuàng)建自己的行為規(guī)則。
當(dāng)你為神經(jīng)網(wǎng)絡(luò)提供訓(xùn)練樣例時(shí),它會(huì)通過(guò)人工神經(jīng)元層運(yùn)行它,然后調(diào)整它們的內(nèi)部參數(shù),以便能夠?qū)哂邢嗨茖傩缘奈磥?lái)數(shù)據(jù)進(jìn)行分類。這對(duì)于手動(dòng)編碼軟件來(lái)說(shuō)是非常困難的,但神經(jīng)網(wǎng)絡(luò)卻非常有用。
例如,如果你使用貓和狗的樣本圖像訓(xùn)練神經(jīng)網(wǎng)絡(luò),它將能夠告訴你新圖像是否包含貓或狗。使用經(jīng)典機(jī)器學(xué)習(xí)或較舊的AI技術(shù)執(zhí)行此類任務(wù)非常困難,一般很緩慢且容易出錯(cuò)。計(jì)算機(jī)視覺、語(yǔ)音識(shí)別、語(yǔ)音轉(zhuǎn)文本和面部識(shí)別都是由于深度學(xué)習(xí)而取得巨大進(jìn)步的。
但神經(jīng)網(wǎng)絡(luò)在保證準(zhǔn)確性的同時(shí),失去的卻是透明度和控制力。神經(jīng)網(wǎng)絡(luò)可以很好地執(zhí)行特定任務(wù),但很難理解數(shù)十億的神經(jīng)元和參數(shù)是如何進(jìn)行網(wǎng)絡(luò)決策的。這被稱為“AI黑匣子”問(wèn)題。在許多情況下,即使是創(chuàng)建深度學(xué)習(xí)算法的人也很難解釋他們的內(nèi)部工作原理。
總結(jié)深度學(xué)習(xí)算法和神經(jīng)網(wǎng)絡(luò)兩個(gè)與網(wǎng)絡(luò)安全相關(guān)的特征:
他們過(guò)分依賴數(shù)據(jù),這意味著他們與他們訓(xùn)練的數(shù)據(jù)一樣好(或壞)。它們是不透明的,這意味著我們不知道它們?nèi)绾纹鹱饔?。接下?lái),我們看看惡意行為者如何利用深度學(xué)習(xí)算法的獨(dú)特特征來(lái)進(jìn)行網(wǎng)絡(luò)攻擊。
對(duì)抗性攻擊
labsix的研究人員展示了一只改良的玩具龜如何欺騙深度學(xué)習(xí)算法將其歸類為步槍
神經(jīng)網(wǎng)絡(luò)經(jīng)常會(huì)犯錯(cuò),這對(duì)人類來(lái)說(shuō)似乎是完全不合邏輯甚至是愚蠢的。例如,去年,英國(guó)大都會(huì)警察局用來(lái)檢測(cè)和標(biāo)記虐待兒童圖片的人工智能軟件錯(cuò)誤地將沙丘圖片標(biāo)記為裸體。在另一個(gè)案例中,麻省理工學(xué)院的學(xué)生表示,對(duì)玩具龜進(jìn)行微小改動(dòng)會(huì)導(dǎo)致神經(jīng)網(wǎng)絡(luò)將其歸類為步槍。
這些錯(cuò)誤一直伴隨著神經(jīng)網(wǎng)絡(luò)而存在。雖然神經(jīng)網(wǎng)絡(luò)通常會(huì)輸出與人類產(chǎn)生的結(jié)果非常相似的結(jié)果,但它們并不一定經(jīng)歷相同的決策過(guò)程。例如,如果你只用白貓和黑狗的圖像訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò),它可能會(huì)優(yōu)化其參數(shù),根據(jù)動(dòng)物的顏色而不是它們的物理特征對(duì)動(dòng)物進(jìn)行分類。
對(duì)抗性的例子,導(dǎo)致神經(jīng)網(wǎng)絡(luò)產(chǎn)生非理性錯(cuò)誤的輸入,強(qiáng)調(diào)了AI算法和人類思維的功能之間的差異。在大多數(shù)情況下,可以通過(guò)提供更多訓(xùn)練數(shù)據(jù)并允許神經(jīng)網(wǎng)絡(luò)重新調(diào)整其內(nèi)部參數(shù)來(lái)修復(fù)對(duì)抗性示例。但由于神經(jīng)網(wǎng)絡(luò)的不透明性,找到并修復(fù)深度學(xué)習(xí)算法的對(duì)抗性示例可能非常困難。
惡意行為者可以利用這些錯(cuò)誤對(duì)依賴深度學(xué)習(xí)算法的系統(tǒng)進(jìn)行對(duì)抗性攻擊。例如,在2017年,密歇根州華盛頓大學(xué)以及加州大學(xué)伯克利分校的研究人員表示,通過(guò)進(jìn)行小幅調(diào)整來(lái)停止標(biāo)志,他們可以使自動(dòng)駕駛汽車的計(jì)算機(jī)視覺算法不可見。這意味著黑客可以強(qiáng)迫自動(dòng)駕駛汽車以危險(xiǎn)的方式行事并可能導(dǎo)致事故。如下面的例子所示,沒有人類駕駛員不會(huì)注意到“被黑”的停車標(biāo)志,但神經(jīng)網(wǎng)絡(luò)可能完全失明。
在另一個(gè)例子中,卡內(nèi)基梅隆大學(xué)的研究人員表示,他們可以欺騙面部識(shí)別系統(tǒng)背后的神經(jīng)網(wǎng)絡(luò),通過(guò)佩戴一副特殊的眼鏡將一個(gè)人誤認(rèn)為另一個(gè)人。這意味著攻擊者可以使用對(duì)抗攻擊來(lái)繞過(guò)面部識(shí)別身份驗(yàn)證系統(tǒng)。
卡內(nèi)基梅隆大學(xué)的研究人員發(fā)現(xiàn),通過(guò)戴上特殊眼鏡,他們可以欺騙面部識(shí)別算法
對(duì)抗性攻擊不僅限于計(jì)算機(jī)視覺,它們還可以應(yīng)用于依賴神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的語(yǔ)音識(shí)別系統(tǒng)。加州大學(xué)伯克利分校的研究人員涉及了一種概念驗(yàn)證,在這種概念驗(yàn)證中,他們操縱音頻文件的方式會(huì)讓人耳不被注意,但會(huì)導(dǎo)致AI轉(zhuǎn)錄系統(tǒng)產(chǎn)生不同的輸出。例如,這種對(duì)抗性攻擊可用于以在播放時(shí)向智能揚(yáng)聲器發(fā)送命令的方式來(lái)改變音樂(lè)文件,播放文件的人不會(huì)注意到文件包含的隱藏命令。
目前,只在實(shí)驗(yàn)室和研究中心探索對(duì)抗性攻擊。暫時(shí)還沒有證據(jù)表明發(fā)生過(guò)對(duì)抗性攻擊的真實(shí)案例。發(fā)展對(duì)抗性攻擊與發(fā)現(xiàn)和修復(fù)它們一樣困難,因?yàn)閷?duì)抗性攻擊也非常不穩(wěn)定,它們只能在特定情況下工作。例如,視角或照明條件的微小變化可以破壞對(duì)計(jì)算機(jī)視覺系統(tǒng)的對(duì)抗性攻擊。
但它們?nèi)匀皇且粋€(gè)真正的威脅,對(duì)抗性攻擊將變得商業(yè)化只是時(shí)間問(wèn)題,正如我們?cè)谏疃葘W(xué)習(xí)的其他不良用途中看到的那樣。
但我們也看到人工智能行業(yè)也正在努力幫助減輕對(duì)抗深度學(xué)習(xí)算法的對(duì)抗性攻擊的威脅。在這方面可以提供幫助的方法之一是使用生成對(duì)抗網(wǎng)絡(luò)(GAN)。GAN是一種深度學(xué)習(xí)技術(shù),它使兩個(gè)神經(jīng)網(wǎng)絡(luò)相互對(duì)抗以產(chǎn)生新數(shù)據(jù)。第一個(gè)網(wǎng)絡(luò)即生成器創(chuàng)建輸入數(shù)據(jù),第二個(gè)網(wǎng)絡(luò),即分類器,評(píng)估由生成器創(chuàng)建的數(shù)據(jù),并確定它是否可以作為特定類別傳遞。如果它沒有通過(guò)測(cè)試,則生成器修改其數(shù)據(jù)并再次將其提交給分類器。兩個(gè)神經(jīng)網(wǎng)絡(luò)重復(fù)該過(guò)程,直到生成器可以欺騙分類器認(rèn)為它創(chuàng)建的數(shù)據(jù)是真實(shí)的。GAN可以幫助自動(dòng)化查找和修補(bǔ)對(duì)抗性示例的過(guò)程。
另一個(gè)可以幫助強(qiáng)化神經(jīng)網(wǎng)絡(luò)抵御對(duì)抗性攻擊的趨勢(shì)是創(chuàng)建可解釋的人工智能??山忉尩腁I技術(shù)有助于揭示神經(jīng)網(wǎng)絡(luò)的決策過(guò)程,并有助于調(diào)查和發(fā)現(xiàn)對(duì)抗性攻擊的可能漏洞。一個(gè)例子是RISE,一種由波士頓大學(xué)研究人員開發(fā)的可解釋的人工智能技術(shù)。RISE生成熱圖,表示輸入的哪些部分對(duì)神經(jīng)網(wǎng)絡(luò)產(chǎn)生的輸出有貢獻(xiàn)。諸如RISE之類的技術(shù)可以幫助在神經(jīng)網(wǎng)絡(luò)中找到可能存在問(wèn)題的參數(shù),這些參數(shù)可能使它們?nèi)菀资艿綄?duì)抗性攻擊。
RISE產(chǎn)生的顯著圖的例子
數(shù)據(jù)中毒(Data poisoning)
雖然對(duì)抗性攻擊在神經(jīng)網(wǎng)絡(luò)中可以發(fā)現(xiàn)并解決相關(guān)問(wèn)題,但數(shù)據(jù)中毒通過(guò)利用其過(guò)度依賴數(shù)據(jù)在深度學(xué)習(xí)算法中產(chǎn)生問(wèn)題行為。深度學(xué)習(xí)算法沒有道德、常識(shí)和人類思維所具有的歧視的概念。它們只反映了他們訓(xùn)練的數(shù)據(jù)隱藏的偏見和趨勢(shì)。2016年,推特用戶向微軟部署的人工智能聊天機(jī)器人提供仇恨言論和種族主義言論,在24小時(shí)內(nèi),聊天機(jī)器人變成了納粹支持者和大屠殺否認(rèn)者,然后毫不猶豫地發(fā)出了惡意評(píng)論。
由于深度學(xué)習(xí)算法僅與其數(shù)據(jù)質(zhì)量保持一致,因此為神經(jīng)網(wǎng)絡(luò)提供精心定制的訓(xùn)練數(shù)據(jù)的惡意行為者可能會(huì)導(dǎo)致其表現(xiàn)出有害行為。這種數(shù)據(jù)中毒攻擊對(duì)于深度學(xué)習(xí)算法特別有效,這些算法從公開可用或由外部參與者生成的數(shù)據(jù)中提取訓(xùn)練。
已經(jīng)有幾個(gè)例子說(shuō)明刑事司法、面部識(shí)別和招募中的自動(dòng)化系統(tǒng)由于其訓(xùn)練數(shù)據(jù)中的偏差或缺點(diǎn)而犯了錯(cuò)誤。雖然這些例子中的大多數(shù)是由于困擾我們社會(huì)的其他問(wèn)題而在我們的公共數(shù)據(jù)中已經(jīng)存在的無(wú)意錯(cuò)誤,但沒有什么能阻止惡意行為者故意毒害訓(xùn)練神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)。
例如,考慮一種深度學(xué)習(xí)算法,該算法監(jiān)視網(wǎng)絡(luò)流量并對(duì)安全和惡意活動(dòng)進(jìn)行分類。這是一個(gè)無(wú)監(jiān)督學(xué)習(xí)的系統(tǒng)。與依賴于人類標(biāo)記的示例來(lái)訓(xùn)練其網(wǎng)絡(luò)的計(jì)算機(jī)視覺應(yīng)用相反,無(wú)監(jiān)督的機(jī)器學(xué)習(xí)系統(tǒng)通過(guò)未標(biāo)記的數(shù)據(jù)來(lái)仔細(xì)查找共同的模式,而無(wú)需接收關(guān)于數(shù)據(jù)所代表的具體指令。
例如,AI網(wǎng)絡(luò)安全系統(tǒng)將使用機(jī)器學(xué)習(xí)為每個(gè)用戶建立基線網(wǎng)絡(luò)活動(dòng)模式。如果用戶突然開始下載比正常基線顯示的數(shù)據(jù)多得多的數(shù)據(jù),系統(tǒng)會(huì)將其歸類為潛在的惡意意圖人員。但,具有惡意意圖的用戶可以通過(guò)以小增量增加他們的下載習(xí)慣來(lái)欺騙系統(tǒng)以慢慢地“訓(xùn)練”神經(jīng)網(wǎng)絡(luò)以認(rèn)為這是他們的正常行為。
數(shù)據(jù)中毒的其他示例可能包括訓(xùn)練面部識(shí)別認(rèn)證系統(tǒng)以驗(yàn)證未授權(quán)人員的身份。去年,在Apple推出新的基于神經(jīng)網(wǎng)絡(luò)的Face ID身份驗(yàn)證技術(shù)之后,許多用戶開始測(cè)試其功能范圍。正如蘋果已經(jīng)警告的那樣,在某些情況下,該技術(shù)未能說(shuō)出同卵雙胞胎之間的區(qū)別。
但其中一個(gè)有趣的失敗是兩兄弟的情況,他們不是雙胞胎,看起來(lái)不一樣,年齡相差多年。這對(duì)兄弟最初發(fā)布了一段視頻,展示了如何用Face ID解鎖iPhone X.但后來(lái)他們發(fā)布了一個(gè)更新,其中他們表明他們實(shí)際上通過(guò)用他們的面部訓(xùn)練其神經(jīng)網(wǎng)絡(luò)來(lái)欺騙Face ID。其實(shí)這是一個(gè)無(wú)害的例子,但很容易看出同一模式如何為惡意目的服務(wù)。
由于神經(jīng)網(wǎng)絡(luò)不透明且開發(fā)人員不創(chuàng)建規(guī)則,因此很難調(diào)查并發(fā)現(xiàn)用戶可能故意對(duì)深度學(xué)習(xí)算法造成的有害行為。
基于深度學(xué)習(xí)的惡意軟件
今年早些時(shí)候,IBM的研究人員引入了一種新的惡意軟件,它利用神經(jīng)網(wǎng)絡(luò)的特性針對(duì)特定用戶隱藏惡意負(fù)載,有針對(duì)性的攻擊以前是擁有大量計(jì)算和情報(bào)資源的國(guó)家和組織。
但是,由IBM開發(fā)的概念驗(yàn)證惡意軟件DeepLocker表明,此類攻擊可能很快成為惡意黑客的正常操作方式。DeepLocker已將其惡意行為和有效負(fù)載嵌入到神經(jīng)網(wǎng)絡(luò)中,以將其隱藏在端點(diǎn)安全工具之外,后者通常會(huì)在應(yīng)用程序的二進(jìn)制文件中查找簽名和預(yù)定義模式。
DeepLocker的另一個(gè)特點(diǎn)是使用神經(jīng)網(wǎng)絡(luò)為其有效載荷指定特定目標(biāo)。為了顯示基于深度學(xué)習(xí)的惡意軟件的破壞性功能,IBM研究人員為DeepLocker提供了勒索軟件病毒,并將其嵌入到視頻會(huì)議應(yīng)用程序中。
同時(shí),惡意軟件的開發(fā)人員在通過(guò)網(wǎng)絡(luò)攝像頭看到特定用戶的面部時(shí),可以訓(xùn)練神經(jīng)網(wǎng)絡(luò)來(lái)激活有效負(fù)載。由于惡意軟件嵌入在視頻會(huì)議應(yīng)用程序中,因此它可以合法訪問(wèn)網(wǎng)絡(luò)攝像頭的視頻源,并能夠監(jiān)控應(yīng)用程序的用戶。一旦目標(biāo)在攝像機(jī)前顯示他們的臉,DeepLocker就會(huì)釋放勒索軟件并開始加密用戶計(jì)算機(jī)上的所有文件。
黑客將能夠使用DeepLocker等惡意軟件根據(jù)他們的性別和種族,用特定深度學(xué)習(xí)算法來(lái)定位特定用戶或群體。我們尚未了解深度學(xué)習(xí)算法和神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)安全威脅的規(guī)模。創(chuàng)建DeepLocker的研究人員表示,他們并不確定此類惡意軟件是否已經(jīng)在黑客放棄。未來(lái)在神經(jīng)網(wǎng)絡(luò)領(lǐng)域面臨的網(wǎng)絡(luò)安全問(wèn)題,還存在諸多不確定性!