紐約大學AI NOW:「情感識別」只是人相的程序化,一種來自上世紀的僞科學

 2018-12-28 15:00:13.0

對於許多人來說,人臉識別已經迅速從技術創新階段轉變爲生活使用,因爲全世界至少有數百萬人願意忍受機場、iPhone或Facebook應用場景中用軟件掃描他們的面孔。

但最近紐約大學AI Now研究所的研究人員發出強烈警告,不僅針對如今無處不在的人臉識別應用,還有其更邪惡的表親:所謂的情感識別技術。該技術可以通過你鼻子的形狀,嘴巴的輪廓和你微笑的方式找到你內心隱藏的信息。

這聽起來像是來自從19世紀開始挖掘的理論,確實如此。

AI Now日前發佈了一份長達56頁的2018年AI發展報告,重點說明了人工智能發展過程中的重大問題。其將「人工智能」稱爲,一個包含衆多學科嘗試模擬人類判斷和營銷炒作的總稱——在沒有監管且有效的道德審查的情況下持續發展。

該報告重點論述了人工智能領域衆多被廣泛使用和濫用的行爲,包括種族歧視、警察監視以及商業祕密法如何隱藏AI監督公衆中的爭議代碼。

AI Now於去年成立,旨在解決人工智能的社會情感問題,在這篇新發布的報告中,重點表達了人們對情感識別的恐懼和擔憂。

作爲「人臉識別的一個子學科,情感識別可以基於人臉圖像或視頻檢測(發現)其個性,內心感受,心理健康情況。

想象一下,你的老闆通過使用機器學習相機來不斷評估你的工作精神狀態,警察基於你的面部「微表情」,藉助「情感識別」技術來推斷你未來的犯罪行爲……

「利用機器視覺和海量數據分析技術來發現事物相關性的能力將會引發一些可怕的結果。」

報告解釋說,這是因爲「情感識別」技術只不過是人相的計算機化,是一種來自另一個時代被揭穿的僞科學,即一個人的性格可以從他們的身體 - 尤其是他們的面孔中辨別出來。

在19世紀80年代,這一理論還每被認爲是僞科學,後來,聲名狼藉的意大利犯罪學家切薩雷·隆布羅索(Cesare Lombroso)推動了這一理論,今天很多人開始相信它是對的了:它缺乏科學基礎,但很多人認爲它是一個有吸引力的想法。

而如今數據導向型的公司已經抓住這個機會,不僅將名字與面孔關聯,甚至將人的整個行爲模式和預測歸結爲眉毛和鼻子之間的某種無形關係,而這種關係能通過計算機的「眼睛」來破譯。

早在兩年前,上海交大的學生髮表的一篇論文稱他們發明了一種僅根據人臉特徵識別犯罪行爲的機器學習算法。這篇論文受到了業界的廣泛批評,其中包括AI Now的Kate Crawford,他告訴The Intercept它構成的「 文字顱相學......的依據只是使用現代的監督機器學習工具而不是「卡尺」。

Crawford以及她的同事比以往更加反對這種基於文化和科學的迴歸算法預測的傳播。報告稱 「雖然人相學以及與其關係密切的納粹種族「科學」失去地位,但是研究人員仍然擔心人相學的思想會在情感識別應用中死灰復燃。

「AI系統能夠告訴我們學生、客戶或犯罪嫌疑人的真實感受或者他們本質上是什麼類型的人,這種思想對公司和政府非常具有吸引力,儘管這種主張的科學理由非常值得懷疑,但其差別對待的歷史也被較好的記載。」

在一封致The Intercept的電子郵件中,Crawford(AI Now聯合創始人兼紐約大學的傑出研究教授)與Meredith Whittaker(AI Now聯合創始人兼紐約大學傑出研究科學家)通過介紹兩家利用外貌特徵來得出關於人的重大結論的公司爲例子(反例),解釋了爲什麼情感識別在當下的發展比以往更令人擔憂。

Crawford 認爲,「從Faception公司聲稱他們可以通過人臉識別恐怖分子 到 HireVue公司 通過分析面試過程中錄製的面試者的面部微表情以預測他們將來是否會成爲一名優秀的員工,使用機器視覺和大規模數據分析挖掘事物相關性的能力將會引發一些非常令人疑惑的主張。

Faception 據稱可以從外貌上確定某人是否「心理上不平衡」、焦慮或有魅力,而HireVue則在相同基礎上對求職者進行排名。

與一些自動化的、無形判斷和決策的計算機系統一樣,情感識別技術出現錯誤分類、標記的可能性是非常大的,特別是在基於薄弱科學基礎的情況下:「這些被系統描述的人如何競爭結果?,「Crawford補充道。

「當我們依靠「黑盒子」AI系統識別人類的'內在生活'或價值時將會發生什麼?其中一些產品引用了極具爭議性的理論,這些理論在心理學文獻中長期存在爭議,但卻被人工智能創業公司視爲事實。」

更糟糕的是,科學對攝像機範圍內的任何人做出判斷的是,制定這些決策的算法由算法開發公司保密,且不受商業祕密的嚴格審查。AI Now的Whittaker指出公司機密正如被混淆了的且問題累累的情感識別實踐:「因爲大多數這些技術都是由私人公司開發的,這些公司是根據公司保密法運作的,報告強烈建議保護這些技術中的道德舉報者。

Whittaker寫道,「這樣的舉報至關重要,因爲許多數據公司將隱私和透明視爲一種責任,而不是一種美德:」雖然理由各不相同,但大多數[人工智能開發人員]不承擔所有責任,並且要由客戶決定如何處理它。「僞科學與最先進的計算機工程相結合,並且沒有問責制。 怎麼可能出錯?

相關報道:

https://theintercept.com/2018/12/06/artificial-intellgience-experts-issue-urgent-warning-against-facial-scanning-with-a-dangerous-history/

文章來源:機器之心