據外媒報道,加州大學河濱分校的Amit Roy-Chowdhury教授領導的團隊收到來自美國國防部高級研究計劃局(DARPA)近100萬美元的撥款,用于研究計算機視覺系統(tǒng)對抗性攻擊。該項目是DARPA AI探索項目(AI Explorations)中全機器視覺干擾(Total Machine Vision Disruption)項目的一部分,研究結果將在自動駕駛汽車、監(jiān)控和國防領域得到廣泛應用。團隊成員包括加州大學河濱分校的研究人員Srikanth Krishnamurthy、Chengyu Song、Salman Asif,以及施樂(Xerox)旗下研發(fā)公司PARC。
(圖片來源:加州大學河濱分校)
當人們看到某個物體時,也會注意到物體周圍的整個場景。這種更廣泛的視覺環(huán)境使人們更容易發(fā)現和解釋不規(guī)則的情況。人類駕駛員注意到貼在停車標志上的貼紙,知道貼紙不會改變標志的含義,還是會停車。然而,使用深度神經網絡進行物體識別的自動駕駛汽車可能會因為貼紙而無法識別停車標志,并且很難順利通過交叉路口。
無論訓練有素的計算機算法在識別目標變化方面有多好,圖像干擾總是會增加計算機做出錯誤決策或建議的可能性。深度神經網絡對圖像處理的脆弱性使其成為黑客的攻擊目標,這些黑客意圖干擾由視覺AI支持的決策和行動。
Roy-Chowdhury表示,“如果有物體出現在不合適的位置,就會觸發(fā)防御機制。即使圖像的一部分受到干擾,如貼在停車標志上的貼紙,我們也能做到這一點?!痹俦热?,當人們看到一匹馬或一艘船時,也會想要看到他們周圍的某些物體,比如谷倉或湖。如果這些圖像之一受到干擾,如馬站在汽車經銷店里,或船漂浮在云端,人們就能識別出錯誤。Roy-Chowdhury的團隊希望將此種能力用于計算機。
要做到這一點,研究人員首先需要確定可能的攻擊類型。DARPA的項目將專注于利用視覺環(huán)境信息產生對抗性攻擊,從而更好地理解機器視覺系統(tǒng)的弱點。Roy-Chowdhury表示,“我們將對圖像系統(tǒng)進行干擾,使計算機給出錯誤的答案,可能有助于設計針對攻擊的防御措施。”
來源:蓋世汽車
作者:羅珊
本文地址:http://autopag.com/news/qiye/121674
以上內容轉載自蓋世汽車,目的在于傳播更多信息,如有侵僅請聯(lián)系admin#d1ev.com(#替換成@)刪除,轉載內容并不代表第一電動網(autopag.com)立場。
文中圖片源自互聯(lián)網,如有侵權請聯(lián)系admin#d1ev.com(#替換成@)刪除。