蘋果AI迅速東山再起,過去一年它都經歷了些什麼?

 2017-06-08 17:17:00.0

蘋果AI迅速東山再起,過去一年它都經歷了些什麼?

本週的WWDC大會上,蘋果在主題演講中向我們展示了其最新的AI研究成果。Siri語音助手變得更加聰明瞭,可以準確理解你的意圖;Photos應用無需聯網即可實現Google Photos的全部功能;當然,還有專爲機器學習而設計的metal 2。自2010年Siri驚豔問世之後,蘋果在AI領域便鮮有作爲,直至漸漸落後於其競爭對手。這一次,蘋果在AI領域再一次走到了前列,而這僅僅只用了一年時間,蘋果究竟是如何做到的呢?

從技術的角度而言,蘋果的AI經歷了三年研發,但前兩年蘋果始終沒能走出窠臼。回溯到2011年,蘋果發佈了第一版Siri,整個科技圈爲之失色。哈佛商業評論驚呼,「Siri是和Mac一樣偉大的創新」。與此同時,很多人擔憂蘋果無意間發明出了天網。短暫的光芒之後,隨着大衆逐漸接觸到這款語音助手,Siri迅速黯然失色,並逐漸暴露出許多缺點。

時間流轉,到2014年時Siri已經基本彌補了在識別和理解語音方面的所有問題。但蘋果同時也意識到,對Siri的小修小補無法解決它的根本問題,是時候來一場徹底的顛覆了。原始版本的Siri建立在隱馬爾科夫模型之上。隱馬爾科夫模型是用於對時間序列數據建模的統計工具,可以通過分析手寫和語音輸入中的時間間隔實現斷句。

過去三年裏,蘋果採用了許多新的機器學習技術來替代和補充隱馬爾科夫模型,其中包括深度神經網絡和LSTM網絡。這些神經網絡模型比馬爾科夫模型更加有效,且普適性更強。不同於馬爾科夫模型的簡單學習模式,深度神經和LSTM網絡擁有記憶能力,且可以分析上下文,更好地理解語法和標點符號間的細微差別,使分析結果更接近用戶的真實意圖。

很快,新系統的功能就不再侷限於Siri之中了。正如史蒂文·利維(Steven Levy)指出的那樣:當你的手機識別出某個近期給你發過郵件但不在你通訊錄中的人時,或者當你在「最近使用」列表中快速找到你接下來想打開的軟件時,又或者當你的手機向你提醒一個沒有記錄在日程表中的約會時,其實都用到了新系統中的功能。

到蘋果發表WWDC2016大會主題演講時,其AI研究已經取得了穩步進展。蘋果高級副總裁Craig Federighi向與會人羣說道:「我們已經能夠自動辨別打進季後賽的金鶯隊,以及在公園玩耍的孩子之間的區別了。」

在WWDC2016大會上,蘋果還發布了運行Basic Neural Network Subroutines(基本神經網絡子程序)的神經網絡API。這個API提供了一系列功能,供開發者們構建用於蘋果生態系統中的所有硬件的神經網絡。

即便如此,蘋果仍然落後於Google和亞馬遜。彼時,Google和亞馬遜要麼已經發布,要麼即將發佈AI智能家庭語音助手(Google Home直到2016年11月才發佈)。蘋果落後的主要原因是,它難以招聘和留住頂尖的AI技術人才。人才之所以不願意留在蘋果,則是因爲蘋果不允許其內部研究人員對外發布他們的研究成果。

多倫多大學計算機科學系教授理查德·澤梅爾(Richard Zemel)在2015年接受彭博社採訪時說道:「蘋果的保密工作已經到了離譜的程度,外界對它一無所知。」據說蘋果甚至不允許他們新招募的AI團隊成員在社交媒體上公佈自己的職位。

蒙特利爾大學計算機科學教授約瑟夫·本吉奧(Yoshua Bengio)則認爲,蘋果不可能在置身於AI學界之外冷眼旁觀,同時又利用到AI領域的最新研究成果。他說道:「如果蘋果不轉變態度的話,它將永遠落後。」

蘋果AI迅速東山再起,過去一年它都經歷了些什麼?

蘋果AI負責人 Russ Salakhutdinov

好在蘋果迅速扭轉了態度。我們曾報道,2016年8月,蘋果以2億美元的代價收購了創立於西雅圖的機器學習創業公司Turi。緊接着,10月份蘋果又從卡內基梅隆大學聘請了AI專家Russ Salakhutdinov。正是憑藉Salakhutdinov的巨大影響力,蘋果的AI業務才得以走出陰影,重新被同行們所談論。

2016年12月,Salakhutdinov在巴塞羅那參加神經信息處理系統大會時對外宣佈,蘋果將開始發表他的研究成果。這意味着蘋果將重新與學術界建立聯繫。

不久後,蘋果兌現承諾發表了《通過對抗訓練從模擬和無監督的圖像中學習》一文。這篇論文重點研究了使用模擬圖像訓練機器視覺系統的缺陷。論文指出,雖然模擬圖像比照片更容易用於教學,但學習得來的結果在真實世界中將失去效力。爲了解決這個問題,蘋果採用了一種被稱作生成對抗網絡(GAN)的深度學習系統,讓兩個網絡相互競爭。其中一個叫做生成器網絡( Generator Network),它不斷捕捉訓練庫裏真實圖片的概率分佈,將輸入的隨機噪聲(Random Noise)轉變成新的樣本(也就是假數據)。另一個叫做判別器網絡(Discriminator Network),它可以同時觀察真實和假造的數據,判斷這個數據到底是不是真的。通過這種方式,研究人員既可以充分享受用模擬圖像訓練網絡的便利性,又避免了訓練出來的網絡在真實世界中失效的問題。

2017年1月,蘋果再進一步,加入了Facebook、Google、IBM和微軟組成的AI戰略合作組織。該組織致力於構建AI研究領域的道德倫理、透明度以及隱私準則,同時推動組織成員間的研究與合作。接下來一個月,蘋果又大幅擴充了它在西雅圖的AI辦公室,在兩聯廣場租了兩層樓,並僱用了更多員工。

蘋果公司的機器學習總監Carlos Guestrin在接受GeekWire採訪時說道:「我們正在努力尋找對AI和機器學習感興趣的人才,尋找熱衷於研究和思考,並能把想法運用到實際產品中的技術人員。」

到2017年3月,蘋果已經取得了重大進展。在舊金山舉行的EmTech峯會上,Salakhutdinov展示了蘋果的AI研究進展,探討了從如何使用「注意力機制」更好地描述照片內容,到如何用深度學習算法結合Freebase和WordNet等知識來源中的內容,從而使AI更加智能和高效等話題。Salakhutdinov說道:「如何將先前的所有知識納入深度學習,對我們來說一項巨大的挑戰」。

上個月,蘋果對外宣佈將研發一種用於處理AI任務的定製化芯片,蘋果內部稱這款芯片爲Neural Engine。一旦Neural Engine芯片研發成功,那麼Salakhutdinov所說的挑戰將簡單得多。不同於Google將處理AI任務的繁重計算轉移到雲端,用TPU統一處理的方式;蘋果習慣於將運算負載分散到CPU和GPU上。

Neural Engine未來將作爲處理AI任務的獨立組件,釋放出CPU和GPU寶貴的計算能力,從而延長電池續航,提升設備上搭載的AR功能,同時讓Siri變得更加智慧,甚至有可能超越Alexa和Google Assitant。

即使沒有Neural Engine芯片,蘋果最近在AI領域取得的進步也令人印象深刻。自去年的WWDC大會以來,蘋果先是發佈了一款API,大幅加強了研發力度;隨後又從全美頂尖的大學挖來了頂尖的AI專家,同時拋棄了以往的保守策略,加入行業合作組織,並最終發佈了一版更加智能的Siri。蘋果這一系列舉措讓我們有理由相信,明年的WWDC大會必將更加瘋狂。

via engadget     

文章來源:雷鋒網