阿維塔于2023年8月完成B輪融資,增資完成后,長安汽車仍為阿維塔的最大股東,持股比例40.99%;寧德時代持股第二,增資后持股比例從17.1%降至14.1%;重慶承安持股第三,增資后持股比例從13.55%降至11.17%。華為不參股,但提供全套智能汽車解決方案。
阿維塔類似于極狐,華為提供全套解決方案,包括機械部分、高壓電氣系統、智能汽車和電子架構。但阿維塔不如問界那般,華為幾乎算是直接下場賣車,因此阿維塔被人誤認為華為含量不高,銷售業(yè)績不佳,而問界賣得十分火爆,華為加持是主要原因。實際上,阿維塔華為含量絲毫不低,甚至高過問界。
阿維塔11的ADAS系統由華為一手操辦,與極狐又有很大不同。
立體雙目是華為的核心技術,只要看一眼前面的攝像頭,必須是兩個攝像頭,且攝像頭之間有至少3厘米以上的距離,就可以判別是不是華為技術。使用華為技術的前視通常是4顆攝像頭,只有1顆前向攝像頭,95%的概率不是華為技術。極狐應該是一對800萬像素的立體雙目配置,中間是540萬像素的單目攝像頭,負責長距離和近距離。
阿維塔11與極狐類似,根據https://www.yiche.com/zhaiyao/detail-8029-2357-6375b5bceb459f000a72cbdf.html,華為的攝像頭圖像傳感器尺寸為3*3微米,推測應該是索尼的IMX490,像素為540萬像素。因為超過600萬像素的車載攝像頭圖像傳感器尺寸都低于3*3微米。
阿維塔11共9個ADAS用攝像頭,除了前視4個,還有5個,這5個攝像頭是4個360環(huán)視短距離攝像頭加1個后置中部中距離攝像頭,華為對后向視覺非常重視。
毫米波雷達方面,阿維塔11是6顆毫米波雷達,通常毫米波雷達是3顆,車頭1顆,車尾兩顆,多的在車前左右再加一個是5顆,阿維塔是在車前左右和車后中間都加了1顆攝像頭,可能都是博世的MRR毫米波雷達,MRR分前向和后向兩種。
阿維塔用了3顆激光雷達,1顆位于保險杠,另外2顆位于車翼子板的位置,位置都比較低,因為車頂的激光雷達在車周圍會有明顯的盲區(qū),所以阿維塔將激光雷達放置在較低的位置。據說阿維塔用的是華為MDC810做域控制器,這是華為最頂級產品。
阿維塔11智能駕駛域控制器架構
MDC系統內部應該是一片昇騰處理器,一片以太網交換機加一片安全MCU。雷達的CAN總線系統都在安全MCU上,以太網部分自然是在以太網交換機上。
從HBE的名稱可以判斷阿維塔沒有用主流的博世iBooster或博世的IPB,而是用了大陸汽車的MKC2+HBE,極狐也是如此。大陸集團推出的由集成式線控制動系統MKCx與HBE模塊組成的MKCxHAD線控冗余制動解決方案,充分滿足L4級汽車自動駕駛的安全需求。主流的iBooster對應L2級自動駕駛。
MKCx通過將踏板模擬器、制動主缸、助力器和液壓調節(jié)控制系統(ABS、ESC)等集成為一個結構緊湊、體積小的制動模塊,減輕了約30%的自身重量,可滿足新能源車在輕量化和空間優(yōu)化等方面的需求。得益于獨特的全解耦踏板模擬器設計,MKCx還能滿足不同類型、不同級別車型的技術需求,提供更多樣化、穩(wěn)定和舒適的踏板感受。
集成式線控制動系統MKCx能以比傳統液壓制動系統快3倍的速度產生足夠高的制動壓力,可以實現150毫秒內的建壓。除了在更短的時間內可以更好地縮短制動距離,經過TüV測試認證MKCx還可以實現100%的制動能量回收,幫助新能源車可平均多回收160瓦時(Wh)的電能,比對標制動系統高出約32%的制動能量回收效率,相當于為續(xù)航里程500公里的純電動車增加了約20公里的續(xù)航里程。
針對高度自動駕駛場景下的制動安全需求,MKCxHAD線控冗余制動解決方案擁有冗余降級備選功能,即使是面臨發(fā)生概率極低的故障情況也能夠有效應對。一種情況是當主制動系統完全失效時,HBE模塊將通過兩個前輪對汽車實施制動,起到制動防抱死系統的作用。另一種則如果僅是主制動系統中部分模塊發(fā)生故障,MKCx將激活大陸集團自行研發(fā)的協同制動模式,讓HBE模塊加入協同工作來驅動后輪制動系統保持工作。這種創(chuàng)新的協同模式,用靈活分離功能確保在自動駕駛下,即使某個系統部件發(fā)生故障,也能通過在雙軸上控制滑移率進行減速,讓制動功能正常發(fā)揮作用。
阿維塔11非常罕見地獨立外置INS,即慣性導航系統,在阿維塔電路圖上直接將INS所在的模塊稱之為高精度地圖控制模塊,加上輸出PPS信號,PPS應該是PPS+GPRMC構成的時間同步信號,毫無疑問阿維塔具備高精度定位能力,且使用高精度地圖。沒有高精度地圖和高精度定位,永遠都只是L2級輔助駕駛。
最后再講下雙目系統。
由于硬件廠家的誤導,讓普通大眾以為算力和安全性成正比,與技術先進度成正比。實際毫無任何直接關聯,其原因在于通常說的算力都是AI算力,即深度學習算力,更準確地說是卷積部分乘和累加的運算?;趩文炕蛉康?a class="article-link" target="_blank" href="/tag/%E6%9C%BA%E5%99%A8%E8%A7%86%E8%A7%89/">機器視覺,有著天然的無法改變的缺陷,這個缺陷表現為識別或者說分類與探測是一體的,無法分割,特別是基于深度學習的機器視覺。也就是說,如果無法將目標分類(Classification,也可通俗地說是識別Recognition)就無法探測,即便特斯拉的占用網格也無法避免這個缺陷,因為它用的語義分割的骨架部分仍是最傳統的CNN。換句話說,如果無法識別目標就認為目標不存在,車輛會認為前方無障礙物,會不減速直接撞上去。什么狀況下無法識別?有兩種情況:
第一種是訓練數據集無法完全覆蓋真實世界的全部目標,能覆蓋10%都已經很強了,更何況真實世界每時每刻都在產生著新的不規(guī)則目標。特斯拉多次事故都是如此,比如在中國兩次在高速公路上追尾掃地車(第一次致人死亡),在美國多次追尾消防車。
第二種是圖像缺乏紋理特征,就像攝像頭面前放一張白紙,自然識別不出來是什么物體。某些底盤高的大貨車的側面在某一時刻或者一堵白墻,就如同白紙一樣,基于深度學習的機器視覺此時如同盲人一般,不減速直接撞上去。
此外,靜止目標對深度學習也是麻煩,為了提高識別效率,機器視覺尤其是基于深度學習的機器視覺需要先框選出運動目標,同時也為了防止誤判,也必須將運動目標和靜止目標分開,如有些道路兩側停滿車輛,運動目標的優(yōu)先級自然高于靜止目標,然后再去識別,通常是背景減除、三幀法或光流法,有時需要1-2秒時間,然而事故可能就發(fā)生了。
從本質上講,深度學習是一種高度通用且極為強大的曲線擬合技術,能夠識別出以往無法被發(fā)現的模式,推斷趨勢并針對各類問題給出預測性結果。當然,曲線擬合在表示給定數據集時也存在一定風險,這就是過度擬合。具體而言,算法可能無法識別數據的正常波動,最終為了擬合度而將噪音視為有效信息。并且深度學習是個黑盒子或灰盒子,調參更像是藝術而非科學。
那為何特斯拉不用立體雙目?寶馬用了立體雙目后來又退出了?很簡單,太難用了。奔馳和豐田在這個領域花費了大量時間來研發(fā),奔馳早在1999年就投入雙目的研發(fā),2013年才在S級上應用,豐田大約也是1999年開始,直到2019年才開始在雷克薩斯上量產。寶馬照搬德國大陸汽車的全套立體雙目解決方案,效果不理想,但沒有大改款的寶馬7系還是用的立體雙目。特斯拉這種短平快的公司自然不愿意多做技術累積。深度學習的免費資源很多,研發(fā)周期是雙目的1/10,甚至1/15。從事深度學習的人至少是雙目的上萬倍,雙目人才奇缺,并且一切都要從頭做起,幾乎沒有免費資源。國內除華為外,只有中科慧眼能幫助整車廠量產立體雙目系統。
電裝最早的立體雙目用于自動駕駛的研究論文發(fā)表在2001年(https://www.denso-ten.com/business/technicaljournal/pdf/17-4.pdf),奔馳則是1996年(https://ieeexplore.ieee.org/document/566403/authors#authors,論文作者Uwe Franke是現奔馳圖像理解小組負責人,實際他最早的雙目研究論文可以追溯到1987年,Uwe Franke是當今立體雙目界的權威),沒有20年技術累積,很難用好立體雙目。
華為在立體雙目道路也有困難,最早的立體雙目傳感器的基線長遠比量產車上要長,基線越長,有效距離就越遠,但標定難度就越高,尺寸一致性難度也越高。目前起步最早的奔馳和斯巴魯基線長度最長,接近30厘米,博世和華為大約是12厘米。
MDC810、三激光雷達、獨立INS加立體雙目,前后6毫米波雷達,即使面對一系列L4級的Robotaxi,這也是國產最強的智能駕駛系統。
免責說明:本文觀點和數據僅供參考,和實際情況可能存在偏差。本文不構成投資建議,文中所有觀點、數據僅代表筆者立場,不具有任何指導、投資和決策意見。