面部識別技術走到十字路口?

 2019-01-18

向左走,還是向右走?

近日,面部識別技術又遭遇「突發事件」。本週二,由90個倡議團體組成的小組給三巨頭AAM(亞馬遜、谷歌、微軟)寫信,要求三家公司承諾不向政府出售面部識別技術。其中,這些團體中包括了美國公民自由聯盟ACLU、難民移民教育和法律服務中心RAICES、電子前沿基金會EFF等重要組織。

這封信一經公佈,給予三家巨頭公司非常大的社會輿論壓力。三家公司都是面部識別技術系統領域的佼佼者,在該領域傾注了大量精力與努力。參見此前報道人臉識別哪家強?亞馬遜、微軟、谷歌等大公司技術對比分析。美國加利福尼亞州公民自由聯盟ACLU主任Nicole Ozer說,「我們正在用人臉識別技術監控交通路口,這些公司現在所作出的選擇,將會決定我們的下一代時時生活在政府的監控之中。比如,是否參加了遊行抗議活動,監控禮拜場所,甚至日常生活。」

1月18日早間,據彭博社消息,亞馬遜公司激進派股東,就亞馬遜向政府機構兜售面部識別軟件這一問題提交決議,建議停止銷售行爲,直到該項技術被認定不會對公民權益產生威脅。該項決議將在2019年晚些時候,在亞馬遜年度大會上進行表決。非盈利機構Open MIC董事Michael Connor表示,亞馬遜向政府出售Rekognition,將自身和股東置於風險境地而不顧。ACLU則認爲,面部識別技術很容易將深色皮膚的人種進行誤判。

十字路口

事實上,這絕對不是ACLU等團體的「小題大做」,2018年12月,美國特工處公佈了一項關於在白宮周圍部署面部識別監控測試系統的計劃,其目的在於確定可能對總統構成威脅的「目標嫌疑人」。據瞭解,該文件於2018年11月底公佈,文件顯示,面部識別系統將會對在白宮公共區域錄製的閉路視頻片段與圖像數據庫進行對比,以監控、跟蹤員工爲特色。

該測試已於2018年11月19日啓動,於2019年8月30日結束。系統運行時,面部匹配的鏡頭圖像將會被保存,然後由人工審覈人員確認並進行刪除工作。該文件承認對於不知情的訪客,運行此面部識別技術時可能具有侵略性。同時,它指出整個白宮已經成爲一個「高度監控化的區域」,平民可以選擇迴避該敏感區域。當時,ACLU公開表示,雖然白宮區域的監控,看似應用範圍狹窄,但它打開了一個潘多拉盒子。即在公共場所對普通平民大衆進行毫無理由的審查,跨越了隱私保護的邊界線。

目前,美國國土安全部門(美國特工處在其中參與)已經將面部識別技術用於掃描國內、國際航班上的乘客。該計劃可能將在未來幾年覆蓋到美國境內更多的機場。與此同時,美國一部分公安機構利用亞馬遜的面部識別工具Rekognition,實時地掃描視頻鏡頭中的圖像。例如,華盛頓警務室,奧蘭多市作爲試點,近期進行了Rekognition第二次測試。

今年1月3日,Nextgov披露美國聯邦調查局正在試用亞馬遜面部匹配軟件Rekognition,用於反恐調查。有消息稱,2018年夏天,亞馬遜就向移民和海關執法人員提供了Rekognition軟件。亞馬遜現爲美國政府最重要的雲技術AWS提供商,中央情報局、國防部都是其客戶。但其面部識別軟件在政府以及社會公共部門使用的詳細情況並不被外界所知。

面部識別技術受到了來自民間團體、社會輿論,以及監管、立法機構的激烈反應,美國立法委員多次致信亞馬遜,要求提供關於亞馬遜Rekognition的更多信息。信中提到,「非常擔憂,該產品存在嚴重的準確性問題,給有色人種帶來打破平衡的精神負擔,並扼殺美國人在公衆場合行使第一修正法案中的權利。」一方面,面部識別技術巨頭加緊佈局、侵入社會各個領域的應用、機構中。另一方面,巨頭內部、巨頭之間對面部識別技術的態度,也頗爲猶豫、曖昧,矛盾重重。

近期,谷歌、微軟承認涉及面部識別服務存在的風險,以及被別有用心者濫用和監視的可能性。特別是,去年12月,谷歌宣佈在該技術漏洞不能被有效制止之前,將不會對外出售Vision API。微軟總裁布拉德·史密斯Brad Smith提出了一些保護性措施,以防止其被濫用。包括國會通過法律限制技術被濫用,具體而言,例如,減少偏見,必須通過法院的允許纔可以進行個人跟蹤。

去年年底,微軟總裁布拉德·史密斯Brad Smith在布魯金斯學會的演講中表示了擔憂:

我們認爲,2019年政府必須開始通過法律來規範這項技術。面部識別技術已經從充滿邪惡的盒子中出現。除非我們採取行動,否則五年之後,當我們覺醒過來。將會發現面部識別服務加劇了社會負面問題的傳播,到那時,這些挑戰將會變得更加困難。

我們並不認爲企業可以通過商業競爭,更好地服務於世界。科技公司被迫在社會責任與市場成功之間作出選擇。防止惡性競爭的唯一方法是建立一個有效健康的市場責任制平臺。堅實地要求企業確保該項技術開發和使用受到法律的制約。

相比之下,微軟CEO薩提·亞納德拉Satya Nadella表達地更爲直接,「一些技術一旦遭到濫用,將對社會造成很大的危害,政府應該對其進行監管」,「面部識別技術太可怕了,絕對是一場徹頭徹尾的不良競爭」,「以競爭的名義,做任何沒有界限的交易,對行業或者整個社會都不會帶來好的結果。」這番話語既指向了自身,也對準了其競爭對手亞馬遜,表達了對Rekognition的強烈不滿。

面部識別技術走到十字路口?

事出有因

人臉識別爲何引起如此大的爭議?首先,涉及準確率的問題,面部識別系統可能出現重大的錯誤。去年的一次測試中,系統錯誤地將28名國會議員與數據庫中的搶劫犯匹配成功。儘管後期被人工糾正,但當工具範圍擴大,在一定程度上,導致一些人在短期內被當作通緝犯。

特別是,辨別有色人種時,容易產生較大的誤差。背後的原因在於,不同人種採用的數據模型、算法是不同的,需要分開部署。《紐約時報》曾經報道,麻省理工學院媒體實驗室對微軟、IBM、曠視科技人臉識別系統的試驗研究。結果顯示在有色人種中,三者辨別非白種人的錯誤率高達20%-30%。從而進一步加劇社會種族歧視和偏見等問題。

其次,從隱私的角度看,面部識別技術涉嫌侵犯個人隱私權。這種技術的危害在於,很容易在未經許可的情況下,被廣泛的濫用而不被普通人所察覺,個人隱私無所遁形。更爲重要的是,一旦面部識別技術被用於軍事,將會帶給社會帶來毀滅性的打擊。

2018年4月,谷歌與軍方合作的Maven殺人機器人項目持續發酵,3千多名谷歌員工抗議,數十名員工請辭。國際機器人武器控制委員會ICRAC向谷歌CEO桑達爾·皮查伊Sundar Pichai、總裁拉里·佩奇Lawrence Edward Page、黛安·格林Diane Greene、李飛飛呼籲停止該項目,要求谷歌承諾不把該項技術用於軍事武器。

2017年,網絡流傳一段關於微型殺人機器人的視頻,機器人體型只有手掌1/2大小,可以輕易逃避人類的捕捉。通過自身視覺系統定位目標,發射彈藥或者有毒化學物質,殺害無辜的平民。基於人工智能的面部識別技術,同時集合快速定位、無人智能集羣技術、靈敏傳感器、信息網絡等多種高端科技技術。當時這段「模擬」的視頻已經成爲現實,早在2016年美國就將機器人用於警方制服犯罪分子,而俄羅斯也被傳出一直祕密地研發殺人機器人,用於監控和偵測,並集成爆炸系統用以軍事防禦。

除了以上技術、倫理、政治正確等原因,面部識別技術在GDPR準則下,如何保證有效的數據庫,更好地演進技術,也將成爲面部識別公司們面臨的巨大挑戰。有趣的是,相同的事物在不同的地區,受到了截然不同的對待。近年,中國一直努力地推行復雜的面部識別技術,相關技術在安防、金融、日常C端產品中大量落地。相關數據顯示,國內目前監控攝像頭安裝數量已突破兩億,是美國的四倍之多。

我們認爲,正是由於國內對「新鮮事物」的包容心態,以及普通民衆對安全性的高需求,使得面部識別技術得以順利迅速地落地、推廣。就像國內在移動支付領域的「後發優勢」,既有其特殊的歷史背景,又有民衆樂於嘗試先進科技的好奇心所驅動。

文章來源:雷鋒網