車網中國報道:
2021年6月17日-19日,由中國汽車工業協會主辦的第11屆中國汽車論壇在上海嘉定舉辦。站在新五年起點上,本屆論壇以“新起點 新戰略 新格局——推動汽車產業高質量發展”為主題,設置“1場閉門峰會+1個大會論壇+2個中外論壇+12個主題論壇”,全面集聚政府主管領導、全球汽車企業領袖、汽車行業精英,共商汽車強國大計,落實國家提出的“碳達峰、碳中和”戰略目標要求,助力構建“雙循環”新發展格局。其中,在6月19日上午舉辦的主題論壇“智能座艙創新技術論壇”上,澳門科技大學澳門系統工程研究所副教授韓子天發表了主題演講。以下內容為現場演講實錄:
各位早上好!感謝建民教授、汽車城領導的支持,以及各位同仁在星期六的早上共聚一堂,一起分享,一起了解智能座艙新技術。
我演講的主題是車載機器人的擬人化與主動交互,我先把剛才發布的白皮書簡單介紹的情況給各位展示一下。
這是下載鏈接,如果各位有興趣的話可以掃描二維碼。正如王教授剛才提到的,《智能汽車車載機器人技術白皮書》有課題,課題是澳門資金發展資助的課題,調研了國內外40多家主機廠,將他們的想法、需求以及在車載機器人方面推動的進展進行交流提煉,開了十幾次會,把目錄定了下來。
白皮書的目錄主要是先將車載機器人定義,車上的車載機器人有虛擬的也有實體的,會有定義。特別對虛擬機器人提出來做描述、陳述,目前確實有比較多主機廠選擇了走虛擬助理的方式。
由芳教授特別提要有小章節說一下車載機器人在車上有什么用,所以專門有一個小章節是車載機器人能做什么,能帶給我們什么。
第二章是關于關鍵技術,從硬件、軟件、操作系統、算法、平臺軟件整體關鍵技術。
比較重要的一章是關于場景,機器人是AI的載體,搭載上去后要把車上的場景呈現出來。場景呈現因為多了機器人,所以是“場景行為”,和平時講的場景還多了一個行為。
把場景行為的定義和中科創達做了溝通,他們原來有很好的場景定義工具軟件叫Kanzi,基于Kanzi延伸構思,怎樣用Kanzi定義車載機器人的場景、行為。在車上有人車環境,加上行為就可以把機器人定義得很好。
最后就現在、曾經研發過、展示過車載機器人的團隊和企業做了羅列整理,作為參考。
就像剛才王教授說的,白皮書是從今年初開始整理,市場不斷有變化,因為時間節點,所以先定稿了。定稿不代表工作會停止,因為工作才剛剛開始,已經和電子工業出版社簽了合同,準備在年底出一本正式的書。
白皮書是拋磚引玉,相信在座專家有更多比我們更有體會、感受、經驗可能和我們分享,算是拋磚引玉,希望你們可以將想法跟我們分享,不排除會成為我們的章節。感謝各位積極關注白皮書,可以做分享發放給你們的朋友,幫我們征集意見。
車載機器人是交互的演進,最早的車是案件式的,后來演進到HMI(Human Machine Interface),HMI是由屏和手指互相交互、傳遞控制信息。
現在已經看到比較多未來汽車的Nomi出臺后,把車載機器人從實驗室帶到實際量產車上,是很大的創新。記得Nomi是在2017年底發布,2018年年初我就收到電話,上海有些朋友也在做智能交互,跟我們聯系了一些長安汽車、北汽新能源、上汽等,開始討論車載機器人預言,后來做了車載機器人的預言項目、量產項目。
項目從一方面告訴我們,車載機器人是方向,在智能座艙里交互更關注的是擬人化和主動交互,擬人化聽得比較多,希望它是擬人的交互場景,而不是冰冷的屏。
今天我會為大家分享車載機器人未來兩個比較重要的技術方向,也寫在白皮書里:
一是擬人化。光有屏的時候很難做擬人化,光有屏,很難想象是擬人的,需要有一些形象,無論是實體、虛擬的形象,讓我們聯想到擬人。
二是主動交互。主動交互是目前在交互設計里比較重要的,目前很多交互都是被動的,一問一答,一個指令一個回答,或者一個指令過去沒有回答。主動交互能體現機器人的擬人化,能讓我們感受到它的智能,懂你才會主動跟你講話,如果不懂你的話只能聽你的指令。
今天主要分享兩點:一是擬人化,二是主動交互。
一、車載機器人擬人化。
車載機器人的定義做過很多輪研討和不斷修改,車載機器人是服務機器人里的社交機器人Social robot,是個人交互機器人。昨天我在商場吃飯,吃完飯走出來看到有幾個機器人站立在那里,這也是服務機器人,但服務的對象比較多,是公眾機器人。
社交機器人比較強調社交屬性、情感屬性、個人屬性。往往這種機器人更需要擬人化,功能主要是提供駕駛輔助信息,提升人機交互能力。機器人就是硬件,搭載了AI技術才具有智能,是搭載體。機器人本身并不能完成功能,而是需要搭載的技術來完成。
一般來講,服務機器人都會有視覺、語音、前端智能、環境感知三類智能。這也是人類具有的智能,能看東西,也能語音講話。搭載技術的目的是讓它模仿和重復人類的行為,提升整體駕駛體驗。
車載機器人主要希望擺脫在車上交互的設備感和指令感,由HMI向HRI進化。
(如圖)左邊是MIT在2009年做的世界上第一款AIDA感交互和駕駛輔助,名字把車載機器人的初心講清楚了一方面是情感交互,是陪伴的。想象著在駕駛艙旁邊都有副駕駛,為什么要有副駕駛?因為我們需要人陪伴,因為你會打瞌睡,赫哲你需要找人幫你找地圖,但你的手抓著方向盤。MIT的AIDA很形象地完成了這兩個工作,但是沒有量產。
右邊是我們團隊兩年前在實驗室做的,主要是讓機器人模擬人,車載機器人是模擬重復人的行為,和人的動作伴隨產生信任感,這款當時在實驗室,現在已經上了實車。
交互的擬人化有五方面可以著手:
(1)語音交互。畢竟在車上大量交互、指令都是通過語音進行的,所以要讓語音交互更自然,和人類的語言更貼近,提升擬人化的程度。
(2)多通道融合。包括人臉、手勢等交互,多通道融合。
(3)智能體要擁有明確的人設,它不是機器,它要有名字、性格、年齡,需要有人設。
(4)需要有主動交互能力,機器人區別于設備,它能主動,要有主動性才能體現出機器人的性能。
(5)情感判斷和反饋智能。
這五點是目前在技術上兌現擬人化的方法。
第二,主動交互。
除了擬人化,主動交互可以讓車更智能,主動交互也定程度上替代重復性工作,它學習到你重復性、習慣性的行為之后,能主動詢問你一些行為、幫你執行一些行為。幫助我們解放了重復工作的場景。
主動交互是未來人機交互和人工智能系統的重要發展方向,才能千人千面。
怎樣兌現主動交互?主動交互可以從三方面兌現:
首先,給機器人增加主動打招呼問候。另外,本地語音語料可以主動學習;最后,用戶習慣記憶。這是目前我們在主機廠兌現的三點,主動交互不是看定義不是看文字怎么做,而是這三點,如果大家有更豐富的經驗可以和我們分享。
前兩點還好,比較容易實現,最后一點怎么實現?我們做了實現方法,實現方法要從人工智能著手。
現在車上大部分智能都是深度學習,包括用戶行為習慣都是深度學習。這是有弊端的,目前深度學習出現兩個不足:
(1)深度學習是歸納系統,只是把大部分人習慣找出來,用條件無法學習,但深度網絡微小的特征沒有辦法總結歸納出來的特征他幫你整理出來。深度學習系統是很好的歸納系統,是發現共性的。但個性怎么發現?發現不了,深度網絡訓練出來的模式是不會有個性的。做的很多算法是做情感識別、表情識別,只是把共性找出來了,有些人的個性無法滿足。
深度網絡在車上的應用有很大的缺陷,車主買了車以后十年或者十年以上都在車上發生行為,行為數據很難反饋到大數據中心、深度學習中心,讓他按個體的習慣用你的規律,強制別人的規律。
深度學習存在不足,我們團隊有算法叫寬度學習(BLS),寬度學習算法是這幾年獲得關注的。簡單來說,深度學習是歸納系統,寬度學習是記憶系統。記憶系統是可以通過少量數據,個體在車上發生的所謂行為數據整體出來你的習慣。
在主機廠用算法兌現了,發現的行為習慣可以針對個體可以預測,整理出規律以后就會預測,預測就能形成主動交互,這是兌現主動交互的方法。
因為時間關系,把未來在車載機器人、交互系統方面的擬人化、主動交互給大家分享了。再次邀請各位針對《智能汽車車載機器人技術白皮書》多提寶貴意見,非常感謝各位,謝謝!