車網中國現場報道
2021年9月3日-5日,由中國汽車技術研究中心有限公司、中國汽車工程學會、中國汽車工業協會、中國汽車報社聯合主辦,天津經濟技術開發區管理委員會特別支持,日本汽車工業協會、德國汽車工業協會聯合協辦的第十七屆中國汽車產業發展(泰達)國際論壇(以下簡稱泰達汽車論壇)在天津市濱海新區召開。本屆論壇圍繞“融合•創新•綠色”的年度主題,聚焦行業熱點話題展開研討。
在9月5日 “主題演講:邁向高級別自動駕駛應用的管理與實踐”中,蘇州安智汽車零部件有限公司創始人郭健發表了題為“回歸汽車-高級別自動駕駛該有的樣子”的演講。
以下為演講實錄:
非常感謝各位嘉賓、各位領導,今天我非常容幸受邀在這個平臺論壇向各位領導、嘉賓匯報一下安智汽車六年以來所做的智能網聯方面的成果,還希望各位嘉賓和領導多多指導和支持。
今天演講題目是回歸汽車高級別自動駕駛該有的樣子。我們放在自動駕駛這一塊也是緊扣王所長第一階段的演講,我們讓自動駕駛更高級,我們首先想人是怎么開車的,車的表現是什么。我們回歸到汽車的屬性下,然后去考慮人的開車,然后傳感器的設計,然后控制的設計等等。
我們認為如果要走到更高級別的自動駕駛,回歸汽車是它的第一步。我們首先講一下安智汽車是一個什么樣的公司,我們安智汽車是成立于2015年1月份,整個經歷了六年研發,我們作出全站自研的駕駛員輔助系統,涵蓋毫米波雷達,也涵蓋了視覺,在算法有感知、決策、執行整套算法。
我們安智汽車在六年研發以來,我們一直做到現在,整個已經完成了第一代77毫米波雷達和多控攝像頭雷達,具備全站成熟L2駕駛員輔助系統。我們現在所做的工作,從技術路線上講,我們在2021年之前的工作,我們叫研腦合一。就是我們做的駕駛員輔助系統,從技術路線上來講,也是軟硬件集成的產品,然后里面全站感知決策執行代碼還有硬件高度配合,能夠給整車廠提供一個整套的解決方案。但是2021年之后,大家看到隨著5G的發展,隨著智能網聯整個國家的推進,我們就開始講睛神分裂,睛是眼睛的睛,神是大腦。
2021年之后逐步往上走,我們硬件傳感器更逼真模擬人的眼睛感知,我們更好去模擬人的眼睛,從產品策略上。往上走只是預控制器,我們的腦子要隨著整車廠走,隨著行業走,如何搭建一個更好的腦子。我們在2021年之前是眼腦合一,2021年變成睛神分裂,我們模擬駕駛員眼睛觀察路況,我們貼近行業做整車測試,我們整個產品策略也是這樣。
講講我自己背景,我是在吉大汽車學院學習,跟隨管欣教授參與汽車仿真模擬開發,然后到了博世,參與了很多全球平臺的開發,并且學會了很多東西,在這個地方也是非常感謝我的前一個東家。
我們在這六年的研發,也獲得了很多的行業內外的認可,我們也是獲得中央電視臺專訪,就卡脖子技術進行演講,得到行業內外的認可。
回歸今天演講主題,我們總是在各種各樣的媒體宣講自動駕駛概念。自動駕駛是不是一個真的無人駕駛,如果要突破我們的真正的無人駕駛,我們需要很多難以預測的工況,我們公司研發測試基地是在蘇州,那個地方一到這個時間開始賣大閘蟹,很多人騎著三輪車,我們的視覺和雷達對于小三輪車識別非常不好,會出現這樣那樣的問題。實現這種真正的無人駕駛還要首先對工況識別做到非常多的便利,并且整車算法復雜度要大幅度提高,尤其測試里程和法規一定要跟上。
在測試里程這一塊,傳統駕駛員輔助系統我們都是采用人工的標定,人工標定整個速度是很慢的,前面很多領導講,給自動駕駛去喂食,我們讓它成長提速,給食物營養速度遠遠跟不上,如何做更好的包括測試里程的工況標定,比如深度學習也是我們需要考慮的。自動駕駛要真正實現無人駕駛需要很長的距離。有意無意廣告宣傳,會給消費者造成很多誤解。
作為我們智能網聯行業,我們也逐漸的往上走。包括我們從前面出現很多這樣那樣的工況,包括最近隧道之中出現的幽靈公交車,包括很多人開著某品牌電動車到一個墓地,出現很多行人作為幽靈出現。當然這是他們在對于很多系統做一些誤解,這體現了在感知層我們要做到真正無人駕駛需要做很多事情,整個行業包括自己的公司技術也在逐漸做突破。
比如說隧道之中出現公交車,還有毫米波雷達識別的有關問題,我們逐步由現在毫米波雷達逐步升級到4D成效,我們要給予控制算法更多的道路環境的信息,從原來的2D變成4D,把物體高度信息和點位做出來,這樣給整個駕駛員輔助系統更好的感知基礎,這樣才支持更高級別和更高品質。
包括我們的視覺系統,剛才大家也看到廣汽研究院的吳院長講到,我們從200萬像素變成800萬像素,在更高像素之中做到更好深度學習算法,還要兼顧到低成本的芯片,這是講感知層的技術演進。
到了控制層的技術演進,大家也都知道,其實傳統的L1、L2級駕駛員輔助系統,我們更多是簡單的工況結合,我們進行很簡單的PID控制,這樣的控制沒有完全考慮駕駛員的前視預留行為。比如駕駛員在畫龍的行為,我們最開始學車的時候,駕駛員喜歡調高座位看著比較近的地方,這樣整個造成車的控制是隨時進行調整,這樣就會造成畫龍。
隨著芯片運力的增加,在我們車輛周邊傳感器信息完備,我們可以采用更高級的控制算法,比如模型預測控制來更好的模擬駕駛員開車,從而避免前面消失的前車,比如車突然消失了,前面有貨車避免碰撞,還有惡劣天氣避免行人的誤判。
我們的底盤電控系統,回到汽車本身,要做一個更加冗余度更高的線控底盤,來保證自動駕駛發展。
我們回歸汽車本身,我們認為回歸汽車從下面三個表象來逐步進行闡述。第一我們講傳感器,我們眼睛如果支持更高級別,我們首先要理解清楚自動駕駛的場景是什么,在這種場景下,我們傳感器如何去設計更好模擬我們的駕駛員對于工況的觀測機制,另外就是腦袋和手,我們腦袋和手就包括控制決策功能和執行制動器的設計,就像前面張總講的,舒適性的制動讓人感受更舒服,讓駕駛員反饋更為透明,更為踏實。
第三個我們講規矩,因為大家都知道我們駕駛員輔助系統還是全自動的駕駛,必須按照車規級的要求進行開發量產,里面包含功能安全和開發模式,我們從三個方面進行闡述。其實我們在傳感器的設計這塊,做了很多方面的需求對接,包括跟整車廠進行很多需求對接,包括結合我們的逐漸往上更高級別的自動駕駛的需求。
首先我們認為,什么是一個合格的高級別的駕駛員輔助系統傳感器,我們認為叫做擬人化,我們不必要的去追求更高級別的精度,比如很多人說,有的激光傳感器精度可以達到厘米級甚至毫米級,我們的人眼是一個構造非常完美的感官器官,但是這個感官器官相對于我們的大腦,我們的人眼是一個非常低配傳感器,我們就能夠抓起水杯和開車,因為沒有必要把精度控制到毫米級,這種高精度的傳感器,一定意義上變成稍微虛假的技術進步。降低了我們去做自動駕駛的門檻,反而對技術進步并不好,我們在整個做駕駛員輔助系統傳感器層面,我們認為智能駕駛傳感器是整個感知的核心,要精確模擬人的感知,延伸人的感知欲,避免人在各種惡劣天氣下的不足,我們一直堅定發展視覺和毫米波雷達兩個感知層的技術路線。
感知傳感器對于感知范圍也有考慮,現在認為在縱向的傳感器的設置里面,200多米的距離已經完全可以覆蓋掉局部路徑規劃的需求,然后尤其要注意在工況策略判斷的時候,芯片主要運算在什么樣的范圍域,60米到70米,是我們人重點關注的區域。
橫向的觀察域,所有車道左側有兩個,右側有兩個就足以,左右兩車道是注意力高度集中的。感知域判斷下開發毫米波雷達,以毫米波雷達為例,毫米波雷達是在有冰雪、冰層、雷達下進行視頻檢測,在黑河做的傳感器受惡劣天氣的影響,包括前后三度到四度的視頻校準,同時也進行回歸的設計。
在感知層方法里面,我們對于物體的高度屬性,做了大規模的識別,這樣大大降低觸發率,對于井蓋是百分之百識別率,對于行人識別率達到81%,對于毫米波雷達前面一個車能達到80%識別率,這樣更好為決策提供道路信息,我們也進行大量的開發,然后可以在惡劣天氣下作出非常好道路模型的建立。我們做更高級別的品質,做自由滾動的防加塞控制系統,剛開始的車速是比較快,到最后是輕輕滑動,然后輕點一下剎車,跟一些紅綠燈工況感覺效果非常好。我們還模擬駕駛員的超車機制,比如說在公交車站,我們的視覺發現是一個公交車,我們超過公交車的時候,前面也沒有車,我們會降低車速,會避免一些鬼探頭的出現,也作出防御超車的機制,視覺系統做了車道偏離報警等等功能,并且在旁邊有一個大車,可能靠的比較近,做車道保持的時候,向適當沒有車的方向偏一下,讓駕駛員感覺心里非常踏實和安全。
在做決策控制的時候,做預控制器,逐步推進室內攝像頭方向,靠外部的攝像頭很難知道駕駛員的疲勞,到底怎么做,到底駕駛員意圖是什么,駕駛員百分之百踩油門了,這個時候AEB是不起作用的,把責任給AEB駕駛員,因為駕駛員就想百分之百撞向前面的車,我們注意視頻對于駕駛員的分析,比如情緒有沒有憤怒,有沒有高興,對預控制器進行研發,也對決策控制做了非常好的聯合控制。
我們脫胎于汽車行業背景,實行V字型開發模式,支持整個產品的開發。在產品開發之中,也是做了大量的嚴苛的測試,包括機械環境這一塊做了35項大的測試,整體歷經四個多月,包括高溫、高濕測試,我們產品也是逐步的在進行量產爬坡。
高級別的自動駕駛,是一個多學科、多行業的融合,也是需要大家一起努力,在這里我也是感謝各位嘉賓和各位領導對于公司多年來的支持和關心,謝謝大家!