擔心面部識別泄露隱私?多倫多大學圖像「隱私過濾器」瞭解一下

 2018-06-11 12:01:49.0

每當用戶將照片或視頻上傳到社交媒體平臺時,這些平臺的面部識別系統都會對用戶有一定的瞭解。這些算法會提取包括用戶的身份、所在地以及認識的人在內的數據,而且還在不斷提升。

隨着對社交網絡隱私和數據安全的擔憂不斷增加,Parham Arabia 教授和研究生 Avishek Bose 帶領多倫多大學工程部的研究人員創建了一種可以動態擾亂面部識別系統的算法。

Aarabi 認爲,「當面部識別系統做得越來越好時,個人隱私就成爲了一個真正的問題。這種反面部識別的方法可以有力地保護個人隱私。」

他們的算法利用了所謂對抗式訓練的深度學習技術,這種方法使兩種人工智能算法相互對抗。Aarabi 和 Bose 設計的方法中有兩個神經網絡:第一個用來進行面部識別,第二個用來擾亂第一個做出的面部識別任務。這兩個網絡不斷對抗,也不斷地相互學習,從而開始了一場持續的 AI 競賽。

這場競賽的結果是建立了一個與 Instagram 有些相似的過濾器,這種過濾器可以應用在照片上從而達到保護隱私的目的。該算法改變了圖像中的特定像素,做出了一些人眼幾乎察覺不到的變化。Bose 說,「擾亂性 AI 可以『攻擊』面部識別神經網絡正在識別的東西。例如,如果識別性 AI 正在識別眼睛的角落,擾亂性 AI 就會對這個部位做出幾乎無法察覺的調整。它在照片中創造了一些非常微妙的干擾,但是卻足以欺騙系統。」Aarabi 和 Bose 在 300-W 面部數據集上測試了他們的系統,300-W 是一個包含 600 多張面部圖像的產業標準庫,這些面部圖像來自不同的種族,照明條件及環境也有所不同。研究者表示,他們的系統可以將可檢測的面部比例從原先的近百分之百降低到 0.5%。

該項目的主要作者 Bose 說:「這個項目的重點在於訓練兩個相互對抗的神經網絡——一個用來創建越來越強大的面部識別系統,另一個用來創建更強大的、用來禁用面部檢測系統的工具。」該團隊的研究將於今年夏天在 2018 年 IEEE 國際多媒體信號處理研討會(International Workshop on Multimedia Signal Processing)上發佈。

多倫多大學工程部的研究人員設計了一個用於擾亂面部識別算法的「隱私過濾器」。該系統依賴於兩個基於 AI 創建的算法:一個用於連續進行面部識別,另一個用於對第一個進行擾亂。

除了禁用面部識別外,這項新技術還可以擾亂基於圖像的搜索、特徵識別、情感和種族評估以及其他自動提取面部屬性的功能。

接下來,該團隊希望隱私過濾器可以以 app 或網頁的形式爲大衆所用。

Aarabi 說:「十年前,這些算法還需要人爲定義,但是現在神經網絡已經可以自行學習了——除了訓練數據,無需提供其他東西。最終,它們可以做出一些真正了不起的東西。在這個領域中這是一段非常有趣的時光,而且這個領域還有很大的潛力有待發掘。」

論文:Adversarial Attacks on Face Detectors using Neural Net based Constrained Optimization

論文鏈接:https://joeybose.github.io/assets/adversarial-attacks-face.pdf

摘要:本文所述算法通過對抗式攻擊在輸入中添加幾乎無法察覺的擾亂,從而達到使機器學習模型對輸入進行錯誤分類的目的。儘管在圖像分類模型中已經提出了許多不同的對抗式攻擊策略,但一直難以打破目標檢測的途徑。本文作者提出的新策略可以通過使用對抗式生成器網絡解決約束優化問題,製作對抗的例子。該方法快速而且可拓展,只需要通過訓練好的生成器網絡的正向通路製作對抗性樣例。與許多攻擊策略不同的是,本文所述的相同的訓練後的生成器可以攻擊新圖像但不會明顯優化它們。文中用 300-W 面部數據集對訓練好的 Faster R-CNN 面部識別器結果進行了評估,本文所述方法成功將面部檢測數降低到原始面部檢測數的 0.5%。同樣是用 300-W 數據集,我們還在不同的實驗中證明了我們的攻擊對基於 JPEG 壓縮圖的防禦的魯棒性,在 75% 的壓縮等級的情況下,我們的攻擊算法的有效性從 0.5%(可檢測的面部比例)降低到 5.0%。

文章來源:機器之心