人臉識(shí)別越來(lái)越常見(jiàn),今年春運(yùn)已經(jīng)能刷臉進(jìn)站,iPhone的相冊(cè)就能用人臉?lè)诸愓掌?,社交網(wǎng)站上能根據(jù)人臉標(biāo)記照片。然而如同央視315提醒的那樣,這項(xiàng)技術(shù)距離無(wú)懈可擊還有一段距離。 比如說(shuō),一副成本1塊錢(qián)的眼鏡,就能騙過(guò)人臉識(shí)別的AI。
一個(gè)能夠愚弄人臉識(shí)別AI的眼鏡 來(lái)自卡內(nèi)基梅隆大學(xué)(CMU)的研究人員表示,佩戴專門(mén)設(shè)計(jì)過(guò)的眼鏡架,可以愚弄最先進(jìn)的面部識(shí)別軟件。一副眼鏡,不單可以讓佩戴者消失在人工智能識(shí)別系統(tǒng)之中,而且還能讓AI把佩戴者誤以為是別人。 一副眼鏡能有如此奇效,正是利用了機(jī)器理解人臉的漏洞。面部識(shí)別軟件通?;谏疃葘W(xué)習(xí)系統(tǒng),通過(guò)大量的數(shù)據(jù)訓(xùn)練來(lái)尋找模式。 與人類對(duì)人臉的理解相比,機(jī)器對(duì)人臉的識(shí)別發(fā)生在抽象層面。電腦不是用人類的方式認(rèn)臉,只是在像素中尋找模式。如果你知道這些機(jī)器在尋找哪種模式,就能輕易的愚弄這些人工智能系統(tǒng),這正是CMU研究員們所做的事情。 首先,他們找到了與特定面孔相關(guān)的圖案,然后把這些圖案打印到一副寬邊眼鏡上。然后在測(cè)試中,機(jī)器對(duì)戴上眼鏡的研究人員“視若無(wú)睹“。不僅如此,眼鏡還能用來(lái)冒充別人。 一位41歲的白人男性研究員,僅憑一副眼鏡,就能冒充女演員““準(zhǔn)確率87.87%。 當(dāng)然這個(gè)研究也有明顯的局限。比如不同的距離、不同的照明條件下,效果會(huì)有差異。最重要的是,實(shí)驗(yàn)室的測(cè)試并不代表在現(xiàn)實(shí)中總是可行。 不過(guò)無(wú)論如何,如果你想保護(hù)隱私,戴這種眼鏡,總比畫(huà)上一個(gè)CVDazzle妝要省事兒。什么是CVDazzle?貼幾張圖給大家看看““ 機(jī)器會(huì)認(rèn)錯(cuò)的,不只是人臉 顯然,在認(rèn)人這件事上,有很多種方法可以騙過(guò)機(jī)器。那么,機(jī)器在識(shí)別其他物體的時(shí)候,還會(huì)被騙嗎? 也會(huì)。比如說(shuō): 這是什么? 作為人類,我們只看到不同顏色相間的波紋。 但是來(lái)自Google、Facebook、Mobileye的圖片軟件們不約而同地說(shuō):這是海星啊! “這種感覺(jué)就像各家神經(jīng)網(wǎng)絡(luò)坐在一起吐槽:長(zhǎng)得多標(biāo)準(zhǔn)的一個(gè)海星啊,這些愚蠢的人類怎么就看不出來(lái)呢?“論文《DeepNeuralNetworksareEasilyFooled》的作者之一、懷俄明大學(xué)的助理教授JeffClune說(shuō)。 這篇論文發(fā)表在2015年的計(jì)算機(jī)視覺(jué)頂級(jí)學(xué)術(shù)會(huì)議CVPR上,還獲得了CommunityTopPaper獎(jiǎng)。 Clune在論文中提到,很多在人類看來(lái)毫無(wú)意義的圖片,輸入到神經(jīng)網(wǎng)絡(luò)中,會(huì)被分類為某種物體。 比如說(shuō),上圖左側(cè)的8張圖片,在人類看來(lái)都是電視機(jī)雪花屏的圖案,但是在神經(jīng)網(wǎng)絡(luò)看來(lái),這里面包含了燕雀、犰狳、小熊貓、獵豹甚至菠蘿蜜““
你說(shuō)是熊貓?機(jī)器說(shuō)是長(zhǎng)臂猿 人類看起來(lái)毫無(wú)異樣的圖片,到了機(jī)器那里也可能會(huì)被錯(cuò)認(rèn)。 比如說(shuō)在人類眼中,上圖左右兩邊都是熊貓;但計(jì)算機(jī)就會(huì)認(rèn)為,左邊的(可能)是熊貓,而右邊的是長(zhǎng)臂猿。 這張圖片,來(lái)自IanGoodfellow發(fā)表在ICLR2015的論文ExplainingandHarnessingAdversarialExamples。 其實(shí)早在2013年和2014年,科研人員們就在討論這類問(wèn)題。Goodfellow在2014年曾經(jīng)發(fā)表了一篇關(guān)于反例攻擊(AdversarialExamples)的論文。去年10月一篇題為《UniversalAdversarialPerturbations》則提出了一種通用的“擾動(dòng)“方式,可以導(dǎo)致各種神經(jīng)網(wǎng)絡(luò)將圖片誤分類。 Goodfellow在OpenAI工作期間,還發(fā)文介紹在反例攻擊和防御策略,量子位曾經(jīng)進(jìn)行了編譯。
AI的判定邊界 現(xiàn)在,人類的科學(xué)家還沒(méi)有完全搞清楚,這些騙過(guò)機(jī)器的方式為什么會(huì)有效,在什么情況下會(huì)失敗。 一種常見(jiàn)的解釋是,它們利用了AI系統(tǒng)中的“判定邊界“。 所謂“判定邊界“,是指機(jī)器區(qū)分兩類物體所用的一組隱形的規(guī)則。比如說(shuō)我們?cè)O(shè)計(jì)了一個(gè)非常簡(jiǎn)單的分類器,用來(lái)區(qū)分獅子和獵豹,經(jīng)過(guò)一段時(shí)間的訓(xùn)練之后,機(jī)器會(huì)創(chuàng)造出一個(gè)X-Y平面,右上方是獵豹、左下方是獅子,而獅子和獵豹之間的分界線,就是“判定邊界“。 Clune認(rèn)為,會(huì)出現(xiàn)上面這些“騙過(guò)圖像識(shí)別系統(tǒng)“的方法,是因?yàn)榕卸ㄟ吔邕^(guò)于武斷?!澳銓?duì)神經(jīng)網(wǎng)絡(luò)所做的,就是訓(xùn)練他們?cè)跀?shù)據(jù)的集群之間劃定界限,而不是對(duì)什么是獵豹、什么是獅子進(jìn)行深入的建模?!癈lune說(shuō),他認(rèn)為解決這個(gè)問(wèn)題,需要讓圖像分類器能夠得出“我不知道這張圖片是什么“的結(jié)果,而不是強(qiáng)行將它歸為某一類。
«
高通反訴蘋(píng)果:當(dāng)創(chuàng)新屈從于高利潤(rùn)會(huì)怎樣?
|
華爾街愛(ài)用加密軟件聊業(yè)內(nèi)八卦 公司政府都很頭疼
»