手机看片1024人妻久久性色|无码一二三区|大黑逼视频|免费的a片,av av免费在线,欧美一级婬片人妻欧美大片,中文字幕在线公司

大中華服務熱線:400-803-9333

中文 EN

當前位置:主頁 > 新聞資訊 > 行業(yè)新聞 >

強智慧車輛感測器融合大作戰(zhàn)!

來源:萬利隆電子 人氣:發(fā)布時間:2017-11-28

隨著有越來越多汽車廠商開始將不同的感測器整合到先進駕駛輔助系統(tǒng)(ADAS)/自動駕駛車輛,他們通常都會認同「感測器融合(sensor fusion)」是高度自動化駕駛安全性的關鍵。

 

但不為人知的是,這些廠商所采用的資料──是原始(raw)資料或經過處理的資料? ──細節(jié),以及他們在融合不同種類感測器資料時面臨的挑戰(zhàn);如市場研究機構Strategy Analytics汽車市場分析師Ian Riches所言:「目前的感測器融合并沒有在原始感測器資料上完成,通常每個感測器都會進行自己的本地處理。」EDA供應商明導國際(Mentor Graphics)將在近日于美國底特律舉行的年度SAE World Congress汽車工程師大會上,展示如何將來自不同感測裝置──雷達、光達、視覺或超音波…等等─ ─的原始資料即時融合,以實現(xiàn)在感測精確度以及整體系統(tǒng)效益上的大幅提升。

Mentor Graphics正推出名為DRS360的自動駕駛平臺,號稱能將來自所有系統(tǒng)感測器之未經過濾的資訊直接傳送到一個中央處理單元,然后將那些原始感測器資料在各個層級即時進行融合;該公司副總裁暨嵌入式系統(tǒng)部門總經理Glenn Perry接受EE Times采訪時,比較了「感測器融合」與「原始資料融合」的不同,指出兩者之間存在著「微妙卻非常重要的差異」。

 

2017-11-29_094019.png

 

一般來說,提供給汽車廠商的感測器是模組化設計,以預先處理資料;Strategy Analytics的Riches解釋:「舉例來說,從攝影機傳送至融合系統(tǒng)的資料并不會是實際的影像資料,而是對影像中重要區(qū)域的描述──像是哪里有一條白線、哪里有一輛車、哪里有交通號志…而所有的融合在這時候才以那些較高層級的資料進行。Mentor認為,擺脫各個終端節(jié)點使用之感測器模組的預處理微控制器,選用原始資料,能讓ADAS/自動駕駛車輛的設計工程師大幅提升即時性能,并降低整體系統(tǒng)成本與復雜度;此外也能利用所有擷取到的感測器資料,為車輛所在環(huán)境與駕駛路況建立最高解析度的模型。

 

為何原始資料融合很困難?

原始資料融合難在哪里? Mentor的Perry表示,首先是每個感測器會產生資料流,而且是以不同的畫面更新率、不同的采樣率以及間隔時間:「這是一個異步(asynchronous)系統(tǒng);」其次,不同類型的資料:「需要被統(tǒng)整為一致性的表述(cohesive representation)?!?/span>

例如攝影機的原始影像(2D)、光達的點云(point cloud,為3D)以及雷達的ADC輸出,這些都必須被融合到符合時間/空間的3D環(huán)境圖;而第三,如Perry所言,必須要被統(tǒng)整的:「是真正很龐大的資料流?!贯槍ξ粗该鞯?D資料集,Mentor還開發(fā)了取得專利的演算法,能實現(xiàn)將光達的空間位置資料、來自雷達的車輛速度資料,以及視覺裝置的物體偵測資料之融合。

Perry表示,過去在分散式的感測器資料模組中,每個感測器通常會丟棄一大堆資料;但集中化的解決方案采用未過濾之感測器資料,能確保精確度與可靠度的強化;他強調Mentor花費兩年的時間進行該平臺的開發(fā):「對于系統(tǒng)效益的改善,我們自己都很驚訝──包括延遲的降低與處理性能的增加,都是由原始資料融合的演算法所實現(xiàn)?!?/span>

 
此文關鍵詞:

Copyright?Microhm.com    版權所有

400 803 9333400 803 9333
企業(yè)郵箱microhm@microhm.com
精密分流器精密分流器