近年來,計算機視覺有了很大的提高,但仍然有可能犯嚴重的錯誤。錯誤太多了,以至於有壹個研究領域專門研究AI經常錯誤識別的圖片,叫做“對抗性圖片”。它們可以被認為是計算機的視錯覺。當妳在樹上看到壹只貓時,人工智能看到的是壹只松鼠。
有必要研究這些圖像。當我們將機器視覺系統置於人工智能安全攝像頭和自動駕駛汽車等新技術的核心時,我們相信計算機與我們看到的世界是壹樣的。對立的形象證明事實並非如此。
對抗性圖像利用機器學習系統的弱點
然而,盡管這壹領域的很多註意力都集中在專門用來愚弄AI的圖片上(比如谷歌的算法將3D打印的烏龜誤認為是槍),但這些令人困惑的圖像自然會出現。這種圖像就更讓人擔心了,因為這說明即使我們不是故意的,視覺系統也會出錯。
為了證明這壹點,來自加州大學伯克利分校、華盛頓大學和芝加哥大學的壹組研究人員創建了壹個包含7500個“天然對立例子”的數據集。他們在這些數據上測試了許多機器視覺系統,發現其準確率下降了90%。在某些情況下,軟件只能識別2%-3%的圖像。
以下是壹些“自然對抗例子”數據集的例子:
數據有望幫助培養更強大的視覺系統。
在論文中,研究人員表示,這些數據有望幫助培養更強的視覺系統。他們解釋說,這些圖像利用了源於軟件“過度依賴顏色、紋理和背景線索”的“深層缺陷”,來識別它看到的東西。
比如下圖,AI誤把左邊的圖片當成了釘子,可能是因為圖片的木紋背景。在右圖中,他們只註意到了蜂鳥餵食器,但他們忽略了壹個事實,那就是沒有真正的蜂鳥。
以下四張蜻蜓照片,AI分析顏色和紋理後,從左到右分別識別為臭鼬、香蕉、海獅和手套。我們可以從每壹張圖看出AI為什麽會犯錯。
AI系統會犯這些錯誤已經不是新聞了。多年來,研究人員壹直在警告,深度學習創造的視覺系統是“膚淺的”和“脆弱的”,它們不會像人壹樣靈活地理解世界上壹些幾乎相同的細微差別。
這些AI系統已經在成千上萬的樣本圖像上進行訓練,但我們通常不知道圖像中的哪些確切元素被AI用來做出判斷。
壹些研究表明,考慮整體形狀和內容時,算法不會將圖像作為壹個整體來看,而是專註於特定的紋理和細節。該數據集給出的結果似乎支持這壹解釋。例如,在明亮的表面上有清晰陰影的圖片會被錯誤地識別為日晷。
AI視覺系統真的沒救了嗎?
但這是否意味著這些機器視覺系統已經沒有希望了呢?壹點也不。這些系統犯的錯誤壹般都是小錯誤,比如把下水道井蓋識別為井蓋,把卡車誤認為豪車。
雖然研究人員說這些“自然拮抗的例子”可以愚弄各種視覺系統,但這並不意味著所有系統都可以被愚弄。許多機器視覺系統非常專業,例如那些用於在醫學掃描圖像中識別疾病的專業系統。雖然這些系統都有各自的缺點,可能無法理解世界和人類,但這並不影響它們對癌癥的發現和診斷。
機器視覺系統有時可能很快,也有缺陷,但它們通常會產生結果。這種研究暴露了機器成像研究的盲點和空白,我們下壹步的任務就是如何填補這些盲點。