人工智能也有「盲區」:MIT新模型如何治療AI的「視而不見」?

 2019-01-28 16:00:10.0

人工智能系統能通過大量的重複學習來認識現實世界的情景,並對不同情景做出判斷。美中不足的是,AI的判斷並不總是準確。麻省理工學院(MIT)和微軟公司的研究者近日開發了一個全新的學習訓練模型,希望能借助人工的輸入來解決訓練自動駕駛AI的缺陷

圖片來源:Pixabay

自動駕駛的實現離不開AI。通常來說,AI首先要經受模擬駕駛場景的訓練,以準備應對道路上的實際情況。但是,模擬訓練並不足夠。在實際駕駛中,面對未知的突發情況,AI很可能做出不安全的駕駛操作,並將這種不安全的駕駛行爲保留下來。

舉個例子,當隔壁車道有一輛白色汽車並排行駛時,自動駕駛系統不會採取任何措施,因爲這是常見的駕駛情況。然而,當這輛車變成一輛救護車時,情況就完全不同了。救護車理應優先通行,可AI未必會讓路。因爲在AI的眼裏,救護車只不過是另一輛尋常的白色汽車罷了

研究人員期望向AI輸入更多人工經驗來解決更多類似的問題。

傳統的自動駕駛測試會通過人工輔助來獲取反饋:如果輔助駕駛員沒有對AI駕駛做出修正,那麼表明AI的駕駛是安全的;若輔助駕駛員干預了AI的駕駛動作,比如幫AI踩了一腳剎車,那麼說明AI發生了誤判,做出了有危險的駕駛行爲。

可是,這個反饋機制的問題在於:它只能用這些反饋來更新AI系統的動作,而不能真正讓AI理解引發輔助動作的問題所在,比如說忽視了盲區裏的一臺白色救護車

人工可以輔助修正潛在的駕駛安全問題,卻不見得能改變AI駕駛的判斷邏輯。我們再次以白車並行爲例,如果10次並行經歷中,駕駛員僅在唯一一次和救護車並行時採取了剎車的干預措施,算法仍然可能以簡單多數的原則認定「與白車並行」是一個安全的行爲。可實際上,安全隱患仍然存在,並可能造成嚴重的事故,儘管機率很小。

某種意義上,無法意識到自動駕駛操作潛在的風險,也是自動駕駛AI的一個運算「盲區」。

研究人員採用了Dawid-Skene算法,這個機器學習算法運用衆包來處理多種混亂的標籤。Dawid-Skene算法會將複雜的駕駛環境和被標註爲「安全」和「不安全」的駕駛行爲進行運算,並區分出真正安全的駕駛行爲和那些看似安全實則危險的駕駛行爲。

即便有些看似危險的駕駛操作僅有10%的危險概率,也能夠被算法揪出,並讓人們知道,AI對這個駕駛行爲沒有十足的信心。最後,算法能根據運算的結果製出一幅各類駕駛行爲安全性的熱圖,並標出每個AI駕駛「盲區」發生的可能性。

這個新模型可以運用在很多領域,自動駕駛之外,自動機器人系統也亟需解決自動操作的」盲區問題」。「它可以幫AI認清自身能力有幾斤幾兩」,研究的參與者之一,MIT計算機科學博士生Ramya Ramakrishnan先生如此評價道,「架起連接人類知識和AI學習的橋樑可以讓AI減少犯錯的機率,變得更加安全。」

參考資料:

[1] Identifying artificial intelligence 'blind spots'. Retrieved Jan 28, 2019 from https://www.eurekalert.org/pub_releases/2019-01/miot-iai012419.php

文章來源:機器之心