日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時(shí)間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營(yíng)銷解決方案
人工智能對(duì)抗的場(chǎng)景探究

引言

成都創(chuàng)新互聯(lián)公司專注為客戶提供全方位的互聯(lián)網(wǎng)綜合服務(wù),包含不限于網(wǎng)站制作、網(wǎng)站建設(shè)、崇川網(wǎng)絡(luò)推廣、微信平臺(tái)小程序開發(fā)、崇川網(wǎng)絡(luò)營(yíng)銷、崇川企業(yè)策劃、崇川品牌公關(guān)、搜索引擎seo、人物專訪、企業(yè)宣傳片、企業(yè)代運(yùn)營(yíng)等,從售前售中售后,我們都將竭誠(chéng)為您服務(wù),您的肯定,是我們最大的嘉獎(jiǎng);成都創(chuàng)新互聯(lián)公司為所有大學(xué)生創(chuàng)業(yè)者提供崇川建站搭建服務(wù),24小時(shí)服務(wù)熱線:028-86922220,官方網(wǎng)址:www.cdcxhl.com

人工智能技術(shù)已融入到各行各業(yè),從自動(dòng)駕駛、人臉識(shí)別再到智能語音助手,人工智能就在身邊。人工智能帶來方便的同時(shí),也引發(fā)了一定的安全問題。一方面攻擊者利用低門檻的人工智能技術(shù)實(shí)施非法行為,造成安全問題;另一方面,由于人工智能,特別是深度神經(jīng)網(wǎng)絡(luò)本身的技術(shù)不成熟性,使應(yīng)用人工智能技術(shù)的系統(tǒng)很容易受到黑客攻擊。

深度神經(jīng)網(wǎng)絡(luò)的技術(shù)不成熟性主要在于模型的不可解釋性,從模型的訓(xùn)練到測(cè)試階段都存在安全問題。訓(xùn)練階段主要是數(shù)據(jù)投毒問題,通過在訓(xùn)練數(shù)據(jù)中添加一些惡意的樣本來誤導(dǎo)模型的訓(xùn)練結(jié)果。測(cè)試階段的安全問題主要是對(duì)抗樣本,在原始樣本中添加人眼不可察覺的微小擾動(dòng)就能夠成功騙過分類器造成錯(cuò)誤分類。

對(duì)抗樣本

自2013年起,深度學(xué)習(xí)模型在某些應(yīng)用上已經(jīng)達(dá)到甚至超過了人類水平。特別是人臉識(shí)別、手寫數(shù)字識(shí)別等任務(wù)上。隨著神經(jīng)網(wǎng)絡(luò)模型的廣泛使用,其不可解釋特性被逐步擴(kuò)大,出現(xiàn)了對(duì)抗樣本。類似于人類的「幻覺」,一張人眼看似旋轉(zhuǎn)的風(fēng)車實(shí)質(zhì)上是一張靜止的圖像(圖1a),一張馬和青蛙的圖片(圖1b)。既然「幻覺」可以騙過人的大腦,同樣地,對(duì)抗樣本也能騙過神經(jīng)網(wǎng)絡(luò)。

圖1 視覺幻覺圖

2014年,Szegedy等人[1]發(fā)現(xiàn)神經(jīng)網(wǎng)絡(luò)存在一些反直覺的特性,即對(duì)一張圖像添加不可察覺的微小擾動(dòng)后,就能使分類器誤分類(圖2),并將這種添加擾動(dòng)的樣本定義為對(duì)抗樣本。理論上來說,使用深度神經(jīng)網(wǎng)絡(luò)的模型,都存在對(duì)抗樣本。從此AI對(duì)抗開始成為了人工智能的一個(gè)熱點(diǎn)研究。

圖2 對(duì)抗樣本實(shí)例

應(yīng)用場(chǎng)景

自對(duì)抗樣本被提出后,神經(jīng)網(wǎng)絡(luò)的安全性問題受到研究人員的格外重視。深度神經(jīng)網(wǎng)絡(luò)已經(jīng)在各個(gè)領(lǐng)域取得了令人矚目的成果,如果因神經(jīng)網(wǎng)絡(luò)本身的安全性給應(yīng)用和系統(tǒng)帶來安全威脅,將造成巨大的損失。例如,在自動(dòng)駕駛領(lǐng)域,車載模型被攻擊后將停車路標(biāo)誤識(shí)別為限速標(biāo)志,可能造成人身安全;垃圾郵件檢測(cè)模型被攻擊后,垃圾郵件或者惡意郵件將不會(huì)被攔截。目前對(duì)抗樣本的研究已經(jīng)存在于圖像、文本、音頻、推薦系統(tǒng)等領(lǐng)域。

1.計(jì)算機(jī)視覺

(1)圖像分類/識(shí)別

Szegedy首次發(fā)現(xiàn)深度神經(jīng)網(wǎng)絡(luò)存在對(duì)抗樣本是在圖像分類的背景下,對(duì)原始圖片添加微小的像素?cái)_動(dòng),就能導(dǎo)致圖像分類器誤分類,且該微小擾動(dòng)對(duì)人眼是不可察覺的。目前對(duì)抗攻擊在圖像分類領(lǐng)域已較為成熟,不僅提出了針對(duì)單一圖像的攻擊算法,還提出針對(duì)任意圖像的通用擾動(dòng)方法,并且針對(duì)攻擊的防御方法也大量涌現(xiàn)。

L-BFGS:2013年,Szegedy等人[1]提出了L-BFGS簡(jiǎn)單有界約束算法,尋找一個(gè)與原始樣本擾動(dòng)距離最小又能夠使分類器誤分類的對(duì)抗樣本。

FGSM(Fast Gradient Sign Method)[2]:該算法是由Goodfellow等人提出的,一種經(jīng)典的對(duì)抗樣本生成方法,在預(yù)知模型本身參數(shù)的前提下,在原始圖片的梯度下降方向添加擾動(dòng)以生成對(duì)抗樣本。

JSMA(Jacobian-based saliency map attack)[3]:該算法是由Papernot等人提出的,建立在攻擊者已知模型相關(guān)信息的前提下,根據(jù)分類器的結(jié)果反饋只修改輸入圖片中對(duì)輸出影響最大的關(guān)鍵像素,以欺騙神經(jīng)網(wǎng)絡(luò)。

One Pixel Attack[4]:該方法于2017年被提出,只需要修改輸入圖像的一個(gè)像素點(diǎn)就能夠成功欺騙深度神經(jīng)網(wǎng)絡(luò),One Pixel攻擊不僅簡(jiǎn)單,而且不需要訪問模型的參數(shù)和梯度信息。

C&W算法[5]:是一種基于優(yōu)化的攻擊方法,生成的對(duì)抗樣本和原始樣本之間的距離最短,且攻擊強(qiáng)度最大。算法在迭代過程中,將原始樣本和對(duì)抗樣本之間的可區(qū)分性相結(jié)合作為新的優(yōu)化目標(biāo)。

其他的攻擊算法包括DeepFool、UAP、BIM、PGD等,如表1所示。

表1圖像攻擊算法

(2)人臉識(shí)別

人臉識(shí)別系統(tǒng)越來越廣泛,其應(yīng)用領(lǐng)域多數(shù)涉及隱私,因此人臉識(shí)別模型的安全性至關(guān)重要。2018年,Rozsa等人[6]探索了人臉識(shí)別中的深度學(xué)習(xí)模型在對(duì)抗樣本中的穩(wěn)定性,通過“Fast Flipping Attribute”方法生成的對(duì)抗樣本攻擊深度神經(jīng)網(wǎng)絡(luò)分類器,發(fā)現(xiàn)對(duì)抗攻擊有效地改變了人臉圖片中目標(biāo)屬性標(biāo)簽。如圖3所示,添加微小擾動(dòng)的“女性”圖片被人臉識(shí)別模型判別為“男性”。

圖3 人臉識(shí)別對(duì)抗樣本實(shí)例

(3)圖像語義分割

圖像語義分割是建立在圖像目標(biāo)分類的基礎(chǔ)上,對(duì)目標(biāo)區(qū)域或者像素進(jìn)行分類。語義分割的對(duì)抗攻擊考慮是否能夠在一組像素的基礎(chǔ)上優(yōu)化損失函數(shù),從而生成對(duì)抗樣本。Xie等人[11]基于每個(gè)目標(biāo)都需要經(jīng)歷一個(gè)單獨(dú)的分類過程而提出了一種密度對(duì)抗生成網(wǎng)絡(luò)DAG,是一種經(jīng)典的語義分割和目標(biāo)檢測(cè)的攻擊方法。該方法同時(shí)考慮所有目標(biāo)并優(yōu)化整體損失函數(shù),只需要為每個(gè)目標(biāo)指定一個(gè)對(duì)抗性標(biāo)簽,并迭代執(zhí)行梯度反向傳播獲取累積擾動(dòng)。

(4)目標(biāo)檢測(cè)

目標(biāo)檢測(cè)作為計(jì)算機(jī)視覺的核心任務(wù)也受到了對(duì)抗攻擊[7]-[10]。目前,目標(biāo)檢測(cè)模型主要分為兩類:基于提議的和基于回歸的模型,這種機(jī)制使目標(biāo)檢測(cè)的對(duì)抗攻擊相比于圖像分類更復(fù)雜。文獻(xiàn)[7]提出了一種針對(duì)兩種模型可遷移且高效的目標(biāo)檢測(cè)的對(duì)抗樣本生成方法UEA(圖4),該方法利用條件GAN來生成對(duì)抗樣本,并在其上多加幾個(gè)損失函數(shù)來監(jiān)督生成器的生成效果。

圖4 UEA對(duì)抗攻擊訓(xùn)練框架

(5)自動(dòng)駕駛

自動(dòng)駕駛汽車由多個(gè)子系統(tǒng)構(gòu)成,包括負(fù)責(zé)場(chǎng)景識(shí)別、根據(jù)場(chǎng)景預(yù)測(cè)汽車運(yùn)動(dòng)以及控制發(fā)動(dòng)機(jī)完成汽車駕駛的子系統(tǒng)。而目前,這三方面都逐漸使用深度學(xué)習(xí)模型搭建,給出較優(yōu)決策結(jié)果的同時(shí)也引發(fā)了物理場(chǎng)景的對(duì)抗攻擊問題。Evtimov等人[21]提出了一種物理場(chǎng)景的對(duì)抗攻擊算法RF2,使各種路標(biāo)識(shí)別器識(shí)別失敗。在原始路標(biāo)圖像上添加涂鴉或黑白塊, “STOP”路標(biāo)就能識(shí)別成限速路標(biāo),右轉(zhuǎn)路標(biāo)誤識(shí)別為“STOP”路標(biāo)或添加車道路標(biāo)。

圖5 路標(biāo)對(duì)抗樣本

2.自然語言處理

自然語言處理是除計(jì)算機(jī)視覺外人工智能應(yīng)用最為廣泛的領(lǐng)域之一,因此人工智能本身的脆弱性也將導(dǎo)致自然語言處理任務(wù)出現(xiàn)安全隱患。但又不同于計(jì)算機(jī)視覺中對(duì)圖像的攻擊方式,自然語言處理領(lǐng)域操作的是文本序列數(shù)據(jù),主要難點(diǎn)在于:①圖像是連續(xù)數(shù)據(jù),通過擾動(dòng)一些像素仍然能夠維持圖片的完整性,而文本數(shù)據(jù)是離散的,任意添加字符或單詞將導(dǎo)致句子缺失語義信息;②圖像像素的微小擾動(dòng)對(duì)人眼是不可察覺的,而文本的細(xì)微變化很容易引起察覺。目前,自然語言處理在情感分類、垃圾郵件分類、機(jī)器翻譯等領(lǐng)域都發(fā)現(xiàn)了對(duì)抗樣本的攻擊[12]-[15],攻擊方法除了改進(jìn)計(jì)算機(jī)視覺中的攻擊算法,還有一部分針對(duì)文本領(lǐng)域新提出的攻擊算法。

(1)文本分類

在情感分析任務(wù)中,分類模型根據(jù)每條影評(píng)中的詞判別語句是積極或消極。但若在消極語句中擾動(dòng)某些詞將會(huì)使情感分類模型誤分類為積極情感。Papernot等人[13]將計(jì)算機(jī)視覺領(lǐng)域的JSMA算法遷移到文本領(lǐng)域,利用計(jì)算圖展開技術(shù)來評(píng)估與單詞序列的嵌入輸入有關(guān)的前向?qū)?shù),構(gòu)建雅可比矩陣,并借鑒FGSM的思想計(jì)算對(duì)抗擾動(dòng)。

圖6 情感分析任務(wù)中的對(duì)抗樣本

在垃圾郵件分類任務(wù)中,如果模型受到對(duì)抗樣本的攻擊,垃圾郵件發(fā)布者就可以繞過模型的攔截。文獻(xiàn)[16]提出了一種基于GAN式的對(duì)抗樣本生成方法,為了解決GAN不能直接應(yīng)用到離散的文本數(shù)據(jù)上的問題,提出采用增強(qiáng)學(xué)習(xí)任務(wù)(REINFORCE)獎(jiǎng)勵(lì)能夠同時(shí)滿足使目標(biāo)判別器誤分類和具有相似語義的對(duì)抗樣本。

圖7 基于增強(qiáng)學(xué)習(xí)的GAN

(2)機(jī)器翻譯/文本摘要

不同于文本分類任務(wù)輸出空間是有限的類別結(jié)果,機(jī)器翻譯任務(wù)的輸出空間是無限的。Cheng等人[15]提出了一種針對(duì)seq2seq模型的對(duì)抗樣本生成方法,對(duì)于離散輸入空間帶來的問題,提出使用一種結(jié)合group lasso和梯度正則化的投影梯度法,針對(duì)輸出空間是序列數(shù)據(jù)的問題,設(shè)計(jì)了新穎的損失函數(shù)來實(shí)現(xiàn)無重疊和目標(biāo)關(guān)鍵詞攻擊。

3.網(wǎng)絡(luò)安全

網(wǎng)絡(luò)安全領(lǐng)域已廣泛使用深度學(xué)習(xí)模型自動(dòng)檢測(cè)威脅情報(bào),如果將對(duì)抗攻擊轉(zhuǎn)移到對(duì)安全更加敏感的應(yīng)用,如惡意軟件探測(cè)方面,這可能在樣本生成上提出重大的挑戰(zhàn)。同時(shí),失敗可能給網(wǎng)絡(luò)遺留嚴(yán)重漏洞。目前,對(duì)抗攻擊在惡意軟件檢測(cè)、入侵檢測(cè)等方向已展開對(duì)抗研究[16]-[18]。

(1)惡意軟件檢測(cè)

相較于之前的計(jì)算機(jī)視覺問題,惡意軟件應(yīng)用場(chǎng)景有如下限制:①輸入不是連續(xù)可微的,而是離散的,且通常是二分?jǐn)?shù)據(jù);②不受約束的視覺不變性需要用同等的函數(shù)替代。Grosse等人[16]驗(yàn)證了對(duì)抗攻擊在惡意軟件識(shí)別領(lǐng)域的可行性,將惡意軟件用二進(jìn)制特征向量表示,并借鑒Papernot等人[13]采用的JSMA算法實(shí)施攻擊,實(shí)驗(yàn)證明了對(duì)抗攻擊在惡意軟件探測(cè)領(lǐng)域確實(shí)存在。

(2)惡意域名檢測(cè)

惡意域名中的DGA家族因頻繁變換和善偽裝等特點(diǎn),使機(jī)器學(xué)習(xí)模型在識(shí)別階段魯棒性不高。Hyrum等人[17]提出了一種基于GAN的惡意域名樣本生成方法DeepDGA,利用生成的惡意域名進(jìn)行對(duì)抗性訓(xùn)練來增強(qiáng)機(jī)器模型來提高DGA域名家族的識(shí)別準(zhǔn)確度,結(jié)果表明,由GAN生成的惡意域名能夠成功地躲避隨機(jī)森林分類器的識(shí)別,并且加入對(duì)抗樣本訓(xùn)練后的隨機(jī)森林對(duì)DGA家族的識(shí)別準(zhǔn)確度明顯高于對(duì)抗訓(xùn)練的結(jié)果。

圖8 DeepDGA生成的惡意域名

(3)DDoS攻擊

在DDoS攻擊領(lǐng)域,Peng等人[18]提出了改進(jìn)的邊界攻擊方法生成DDoS攻擊的對(duì)抗樣本,通過迭代地修改輸入樣本來逼近目標(biāo)模型的決策邊界。

4.語音識(shí)別

目前,語音識(shí)別技術(shù)的落地場(chǎng)景較多,如智能音箱、智能語音助手等。雖然語音識(shí)別技術(shù)發(fā)展良好,但因深度學(xué)習(xí)模型本身的脆弱性,語音識(shí)別系統(tǒng)也不可避免地受到對(duì)抗樣本的攻擊。2018年,伯克利人工智能研究員Carlini 和Wagner發(fā)明了一種針對(duì)語音識(shí)別的新型攻擊方法,該方法也是首次針對(duì)語音識(shí)別系統(tǒng)的攻擊,通過生成原始音頻的基線失真噪音來構(gòu)造對(duì)抗音頻樣本,能夠欺騙語音識(shí)別系統(tǒng)使它產(chǎn)生任何攻擊者想要的輸出[19]。

5.推薦系統(tǒng)

在推薦系統(tǒng)領(lǐng)域,如果推薦模型被攻擊,下一個(gè)推薦的item將是人為設(shè)定的廣告。基于協(xié)同過濾(CF)的潛在因素模型,由于其良好的性能和推薦因素,在現(xiàn)代推薦系統(tǒng)中得到了廣泛的應(yīng)用。但事實(shí)表明,這些方法易受到對(duì)抗攻擊的影響,從而導(dǎo)致不可預(yù)測(cè)的危害推薦結(jié)果。目前,推薦系統(tǒng)常用的攻擊方法是基于計(jì)算機(jī)視覺的攻擊算法FGSM、C&W、GAN等[20]。目前該領(lǐng)域的對(duì)抗攻擊仍存在挑戰(zhàn):①由于推薦系統(tǒng)的預(yù)測(cè)是依賴一組實(shí)例而非單個(gè)實(shí)例,導(dǎo)致對(duì)抗攻擊可能出現(xiàn)瀑布效應(yīng),對(duì)某個(gè)單一用戶的攻擊可能影響到相鄰用戶;②相比于圖像的連續(xù)數(shù)據(jù),推薦系統(tǒng)的原始數(shù)據(jù)是離散的用戶/項(xiàng)目ID和等級(jí),直接擾動(dòng)離散的實(shí)體將導(dǎo)致輸入數(shù)據(jù)的語義信息發(fā)生改變。并且如何保持推薦系統(tǒng)對(duì)抗樣本的視覺不可見性依然有待解決。

小 結(jié)

目前該領(lǐng)域的研究方向和攻擊算法眾多,一種攻擊算法被提出后就會(huì)出現(xiàn)一種應(yīng)對(duì)的防御方法,接著針對(duì)該防御方法再提出新的攻擊方法,但在類似的攻防循環(huán)中還缺乏評(píng)判攻擊是否有效的評(píng)估方法,此外有一些領(lǐng)域存在對(duì)抗攻擊的情況但目前仍未被研究和發(fā)現(xiàn)。


網(wǎng)頁名稱:人工智能對(duì)抗的場(chǎng)景探究
分享URL:http://www.5511xx.com/article/cocpgpo.html