AI算法通過照片識別同性戀準確率超過人類,斯坦福大學研究惹爭議

 2017-09-08 13:56:16.0

2016 年,上海交通大學的一篇論文《基於面部圖像的自動犯罪概率推斷》引起了極大的爭議,被貼上了「歧視」的標籤。近日,斯坦福大學在《Journal of Personality and Social Psychology》上公佈了一篇論文《Deep neural networks are more accurate than humans at detecting sexual orientation from facial images》,同樣引發了極大的爭議。

據《衛報》報導,該研究發現計算機算法能夠準確地區分直男與同性戀,準確率高達 81%,對女性的性取向判別的準確率為 74%。這一研究引發了對隱私、道德問題的爭議。

人臉識別正隨著技術的發展不斷進步。在美國,人臉識別正被教會用於跟踪禮拜者;在英國,零售商店用它來識別偷竊者。今年,威爾士警方使用人臉識別技術在體育場外逮捕了一名嫌犯。而在中國,人臉識別技術可以確認司機身份,讓遊客進入景點,並已成為付款方式的一種。蘋果今年 9 月即將推出的新一代 iPhone 也幾乎確定會使用人臉識別技術來解鎖屏幕。

這種技術的應用場景顯然還在不斷增多。科技的發展,就像飛機和互聯網,顯著地改變了人類生活的面貌,而人臉識別技術正在編碼人類的生活。雖然人的面孔屬於個體,但也是公開的,技術從一開始就繞過了隱私權的爭議。現在,面對人臉圖像數據的記錄、存儲與分析,我們對於隱私、公平和信任的觀念正在面臨挑戰。

人臉不僅是名字的標籤,它也顯示了很多其他的信息——而它們也是機器可讀的。這意味著我們可以利用它來造福人類,一些科技公司正在開發自動人臉識別系統,用於罕見遺傳病的診斷,例如Hajdu-Cheney 綜合徵——人工智能的方法比其他已有方法能夠更快提供診斷;測量情緒系統也可以讓人們掌握自閉症患者難以捉摸的情緒信號。然而,技術也會引發困擾,來自斯坦福大學的研究者們最近的研究已經證明,當看到同性戀或異性戀的照片時,算法可以準確識別出照片中人物的性取向(準確率可達81% ,而人類只有61%)。在同性戀違法的國家裡,這種軟件識別的方法顯然具有可怕的前景。

這項研究已經發表在了《Personality and Social Psychology》上,並被最新一期《經濟學人》等媒體報導。它基於超過 35,000 張美國交友網站上男女的頭像圖片訓練。論文作者 Michal Kosinski 與 Yilun Wang 利用深度神經網絡從圖像中提取特徵,利用大量數據讓計算機學會識別人們的性取向。

研究發現,同性戀男女傾向於具有「性別非典型」特徵、表情和「打扮風格」。理論上,男同性戀趨向於女性化,而女同反之。在研究中,人們還找到了一些其他的趨勢,如同性戀男人有比直男更窄的下巴,更長的鼻子以及更大的前額;而同性戀女性相比「直女」趨向於有更大的下巴、更小的前額。

在「識別同性戀」任務中,人類的判斷表現要低於算法,其準確率為在男性中 61%,在女性中 54%。當軟件識別被測試者的圖片(每人五張圖片)時,準確率則顯著不同:男性 91% 準確率,女性 83% 準確率。研究人員在論文中寫道,廣義上,這意味著「人類面孔包含了比人類大腦可以感知和解釋的更多的性取向信息」。

論文指出,研究提供了有關性取向源於出生前暴露於某些激素的「強烈支持」,這意味著同性戀並不是一個可以被自己控制的選擇。而機器對於女性性取向識別成功率較低的現象則支持了女性對於性取向更加靈活的觀點。

雖然研究結果局限於性別——和性還有一些區別,有色人種沒有被納入研究,而變性者和雙性戀也沒有納入考量——但這項研究對於人工智能的影響敲響了警鐘。研究人員認為,數十億存儲在社交網絡和政府數據庫中的公共數據都可以被用來進行性取向識別,而無需本人的同意。

可想而知,一旦這種技術推廣開來,夫妻一方會使用這種技術來調查自己是否被欺騙,青少年使用這種算法來識別自己的同齡人,在LGBT 非法的國家裡會發生什麼則更加難以想像。這意味著構建一種具有爭議的軟件,並鼓勵人們利用它做出危害他人的事。

但該論文的作者表示,這些技術已經存在,公開以便政府和公司對其慎重考慮,並製定法規加以約束非常重要。

「這當然是令人不安的,它就像任何新工具一樣,如果被錯誤地使用,就會造成危險,」多倫多大學心理學教授 Nick Rule 表示。「如果我們開始以外表來判定人的好壞,那麼結果將會是災難性的。」

不過,Rule 認為開發和測試這項技術的重要性不言而喻:「研究者們證明了這種方法非常強大……現在我們明白了我們需要做點什麼了。」

Kosinski 目前拒絕接受采訪,斯坦福大學表示,這位教授以在劍橋大學時期進行的心理學研究而聞名,其中包括使用 Facebook 數據識別人格。有趣的是,在 2016 年美國大選,以及英國脫歐投票時期,數據分析機構也使用了類似的分析方法來試圖影響投票者,這種技術引發了人們的擔憂。

在斯坦福大學的研究中,作者同時指出,人工智能可以被用於探索面部特徵與其他很多特性之間的聯繫,如政治觀點、心理狀況和個性。

這一類型的研究進一步引起了人們對於類似電影《少數派報告》中危險的擔憂,在電影中,警察可以預測犯罪的發生,並對其進行阻止。

「如果有了足夠的數據,人工智能可以告訴你任何人的任何事,」人臉識別科技公司 Kairos 首席執行官 Brian Brackeen 說道。「問題是對於社會來說,我們需要知道嗎?」

Brackeen 表示,斯坦福大學研究人員有關性取向的研究「非常正確」,人們需要對於隱私和機器學習新技術持有更加慎重的態度,這樣才能阻止危險發生。

Rule 對於人工智能,特別是人臉識別的未來也表示擔憂:「我們都需要對此保持關注。」


論文:Deep neural networks are more accurate than humans at detecting sexual orientation from facial images.




鏈接:https://osf.io/zn79k/


摘要:我們展示了人臉包含很多有關性取向的信息,可被人類大腦感知並解讀。我們使用深度神經網絡從35326張面部圖像中提取特徵。這些特徵被輸入到一個logistic回歸算法中,來分類性取向。給定一張面部圖像,分類器能夠準確的區分同性戀與直男,準確率高達81%,女性準確率為74%。而人類在這方面的準確率更低:男、女性準確率分別為61%與54%。如果給定某個人的5張面部圖像,算法判定是否為同性戀的準確率增長到91%與83%。分類器採用的面部特徵包括固定的(例如鼻子形狀)與暫時的面部特徵(如裝飾風格)。與性取向產前激素理論一致,同性戀傾向於擁有性別非典型面部形態、表達與裝飾風格。針對單性別的預測模型檢測男性同性戀的準確率為57%,女性同性戀的準確率為58%。這些發現推進了我們對性取向以及人類認知缺陷的理解。此外,在公司與政府越來越多地使用計算機視覺算法探測人的私密特徵,我們的研究暴露出男、女性同性戀的隱私與安全問題。



圖 4:通過把普通人臉分類為最可能是同性戀與最不可能是同性戀而建立的合成人臉與普通人臉標誌



文章來源:機器之心