GPU的主页

帮趣游戏     进入个人中心

GPU

gpu

幫趣網協助針對GPU資訊發佈, 幫趣網擁有針對IT領域数十萬筆活動聯繫資訊,並且協助廠商做資訊發佈,活動發佈

http://bangqu.com/gpu

职业: GPU

现居:

  • 浏览 446次
  • 感谢 0人
  • 收益 ¥0.0元

CES 2017 | 詳解英偉達CEO 黃仁勳演講:「AI 教父」的自動駕駛佈局

在每年美國CES 正式開始的前一天晚上,都會有一位科技領域的大佬在拉斯維加斯最高端的酒店之一「威尼斯人」做一場演講,作為整個展會的開端。今年正值CES 50 週年,這個「非官方開場」就顯得更加有意義。而這次站在威尼斯人酒店舞台上的人,正是NVIDIA(以下稱為英偉達)的CEO 黃仁勳(以下稱為老黃)。

 

2016 年可以說是英偉達大爆發的一年。GPU 驅動下的人工智能與深度學習技術讓整個科技行業為之瘋狂,這不只讓英偉達的股價和利潤在2016 年各種翻倍,更讓他們有能力進一步擴展人工智能在汽車行業,尤其是自動駕駛領域內的應用。

 

在這次演講當中,老黃用了整整一半的時間來公佈英偉達在自動駕駛領域內的最新解決方案與合作進展。這足以看出他有多麼重視汽車業務。下面我們就來分析一下老黃公佈的全部與汽車相關的信息。

 

人工智能驅動下的自動駕駛解決方案

在老黃看來,通過深度學習的方式讓人工智能不斷地優化自己的駕駛行為,是目前最有效的自動駕駛解決方案。這個流程就好像是我們人類去學習開車一樣,只不過如何讓機器能夠像人類大腦一樣學習才是這其中的難點,而這也是英偉達目前正在用自己的平台所努力解決的問題。其解決方案主要包括兩點:

 

1. 人工智能車載超級電腦(AI CARSUPERCOMPUTER

 

在去年的CES 上,老黃就已經發布了他們的車載超級電腦Drive PX2,今年他又對這套芯片做了進一步的迭代優化。這套稱為XAVIER 的超級電腦整合了多種芯片,其中包含了8 核心的ARM64 CPU,以及具有512 個核心的Volta 架構GPUVolta 是英偉達下一代的GPU 核心架構,甚至還沒有應用在PC 端的顯卡產品上,這套架構擁有30 Tops DL ,功耗僅為30W,且整套系統符合車規級安全標準ASIL D 級。

 

將自己最新的GPU 架構率先應用在自動駕駛平台上,老黃確實非常拼。其實我在之前的文章中就解釋過,由於GPU 的架構原因,其在深度學習方面的應用本就十分擁有優勢。而老黃這次的演講中進一步解釋了車載超級電腦在自動駕駛環境中所提供的功能:接收車載傳感器所傳回的數據信息並加以分析,之後輸出能夠控制汽車各部分元器件控制單元(例如轉向、加速等)的CAN 總線信息,簡單講就是將車輛感知到的信息加以分析,然後再輸出控制車輛行駛的指令,可以說這套電腦就是用來替代人腦在駕駛行為當中的判斷與決策能力的。

 

 

2. 自動駕駛測試車BB8

 

深度學習光有硬件是不夠的,還需要有足夠的學習「素材」。為了讓自己的深度學習平台能夠積累更多的行駛數據,英偉達自己打造了一台自動駕駛測試車輛BB8,並獲得了加州自動駕駛車輛的測試牌照。BB8 搭載了Drive PX2 電腦,並已經開始在道路上進行行駛測試。後天GeekCar 將有機會能夠在CES 現場試乘BB8,屆時將會為大家帶來具體介紹。

 

 

AI CO-PILOT 系統

老黃認為具有云端連接的人工智能汽車應該已經具備能力在世界上的很多地方實現自動駕駛。但是,目前總會有一些路況或條件中,人工智能是無法完全依靠自己來駕駛的,這時就需要駕駛者的介入。由於人工智能事先已經了解到整條行駛路線的規劃,它就能夠根據路線中不同位置的路況來決定是否需要人類駕駛者介入。因此為了能夠更好的實現自動駕駛和人工駕駛之間的切換,英偉達研製了一套人工智能的自動巡航輔助系統(AI CO-PILOT)。

 

 

需要注意的是,這套系統被稱為CO-PILOT,我將它翻譯成自動巡航輔助系統,而不是自動駕駛輔助系統。原因是這套系統的應用場景更多的是在SAE 所定義的LEVEL 2 LEVEL 3 級別的半自動駕駛環境當中。在這種級別當中,駕駛者需要隨時準備好接管車輛的駕駛控制權,但是很多事實告訴我們,人類駕駛者很難能夠長時間維持足夠的注意力,這往往會導致事故的發生。AI CO-PILOT 的誕生正是為了解決這樣的問題。

 

這套系統主要包含五個功能:

 

1. 語音預警提示:在人工駕駛和環境中,車身周圍的四個攝像頭實時監控周圍的路況,並通過自然語音的預警方式向駕駛者提示潛在危險。

 

這第一個功能與我們常見的ADAS 類似,但是進一步優化了預警方式。接下去的四個功能,則是讓車載人工智能能夠更好的了解駕駛者的狀態。

 

2. 人臉識別(Face Recognition):AI 可以通過攝像頭識別駕駛者的身份,即使是駕駛者的髮型或者是裝扮發生了變化。其精度已經可以達到人類的級別。

 

3. 頭部跟隨(Head Tracking):AI 能夠通過攝像頭識別駕駛者頭部所朝的方向。

 

4. 目光跟隨(Gaze Tracking):AI 能夠通過深度學習網絡對人眼進一步識別,來判斷出駕駛者的目光所關注的點。

 

5. 唇語識別(Lips Reading):這個功能來源於牛津大學的一項唇語研究,他們的成果能夠讓人工智能對唇語的識別精度達到95%,比人類的識別精度高出一倍。

 

 

上述的幾個功能,旨在讓車載系統能夠持續觀察駕駛者的行為,並在適當的時機與駕駛者交互,保證其維持足夠的注意力。而正如我們之前文章中所分析的,整套系統的基礎仍然是英偉達的人工智能汽車平台(AI CAR PLATFORM)。

 


基於AI CAR PLATFORM 的合作夥伴

除了前面提到的超級電腦和AI CO-PILOT,英偉達的人工智能汽車平台還包含其它部分,比如高精度地圖。為了搭建出這套完善的平台,英偉達選擇了與行業內的巨頭們合作。

 


 

在高精度地圖方面,英偉達針對不同國家地區的具體情況選擇了不同的合作夥伴:

 

1. 百度:提供中國地區的高精度地圖。

 

2. TomTom:提供歐洲地區的高精度地圖,及RoadDNA 技術。

 

3. Zenrin:提供日本地區的高精度地圖。

 

4. Here:將英偉達的算法與技術整合到Here 的雲端地圖數據中心。

 

除去地圖商之外,英偉達還和兩家Tier 1:博世和ZF 達成了合作,他們能夠幫助英偉達將其車載超級電腦進行車規級量產,並將英偉達的平台整合到給車廠的整體方案當中。

 


 

博世和ZF 是全球第一大及第五大汽車供應商,大家如果常讀我們的內容一定知道這兩家Tier 1 的實力。老黃也在後來的專訪中直言,與Tier 1 的合作對英偉達來說至關重要,因為他們的整合,優化與製造能力直接決定了英偉達的技術在量產車產品當中的表現,以及其平台能否最終在車廠的產品上落地。

 

最後,建造人工智能車,沒有整車廠的介入是不可能的。所以老黃在演講的最後,宣布了與奧迪的合作。雙方將聯手研發未來的人工智能汽車,併計劃在2020 年能夠正式上路。其實早在10 年之前,奧迪就已經開始在車載數字座艙以及車內視覺交互領域內合作,這次的發布可以說是更進了一步。

 

 

現在在CES 的會場外,就有一台搭載英偉達車載超級電腦的奧迪Q7 在進行行駛測試。GeekCar 後續也將會對這台車做具體的介紹。

 

在演講的最後部分,老黃說到:「希望我們的孩子在未來可以再也不用開車了」,這已經是行業內的共同願景,在人工智能和深度學習的驅動下,我們還需要多長時間才能夠實現這個願望?這個問題我相信老黃自己也無法解答,但是可以肯定的是這位被科技愛好者稱為「AI 教父」 的華裔企業家以及他的英偉達,一定會在自動駕駛的發展過程中佔據一個重要的位置。


來源:

http://geekcar.com/archives/57430


 


分享时间: