91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

無人駕駛方面的優(yōu)秀論文,一起來看看該領(lǐng)域最前沿的研究課題

ml8z_IV_Technol ? 來源:lp ? 2019-03-27 09:10 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近日,CVPR 2019發(fā)布接收論文ID列表,共計1300篇論文被接收,接受率為25.2%。本文整理了無人駕駛方面的優(yōu)秀論文,一起來看看該領(lǐng)域最前沿的研究課題。

CVPR 是首屈一指的年度計算機視覺盛會,在機器學(xué)習(xí)領(lǐng)域享有盛名。今年的 CVPR 將于 6 月 16 日-20 日于美國加州的長灘市舉行。

CVPR 作為計算機視覺領(lǐng)域的頂級學(xué)術(shù)會議,今年共收到了 5165 篇有效提交論文,比去年 CVPR2018 增加了 56%。不久之前,CVPR 2019 官網(wǎng)放出了最終的論文接收結(jié)果。據(jù)統(tǒng)計,本屆大會共接收了 1300 論文,接收率接近 25.2%。本文智車科技整理了本屆會議上與無人駕駛相關(guān)的優(yōu)秀論文及項目,并附有下載鏈接。

1.

題目:Pseudo-LiDAR from Visual Depth Estimation: Bridging the Gap in 3D Object Detection for Autonomous Driving(偽激光雷達)

作者:Yan Wang, Wei-Lun Chao, Divyansh Garg, Bharath Hariharan, Mark Campbell, Kilian Q. Weinberger論文鏈接:https://arxiv.org/abs/1812.07179項目鏈接:https://mileyan.github.io/pseudo_lidar/代碼鏈接:https://github.com/mileyan/pseudo_lidar

摘要:3D物體檢測是自動駕駛中的基本任務(wù)。如果從精確但昂貴的LiDAR技術(shù)獲得3D輸入數(shù)據(jù),則最近的技術(shù)具有高度準確的檢測率。迄今為止,基于較便宜的單目或立體圖像數(shù)據(jù)的方法導(dǎo)致精度顯著降低 - 這種差距通常歸因于基于圖像的深度估計不良。然而,在本文中,我們認為數(shù)據(jù)表示(而不是其質(zhì)量)占據(jù)了差異的大部分??紤]到卷積神經(jīng)網(wǎng)絡(luò)的內(nèi)部工作原理,我們建議將基于圖像的深度圖轉(zhuǎn)換為偽LiDAR表示 - 基本上模仿LiDAR信號。通過這種表示,我們可以應(yīng)用不同的現(xiàn)有基于LiDAR的檢測算法。在流行的KITTI基準測試中,我們的方法在現(xiàn)有的基于圖像的性能方面取得了令人印象深刻的改進 - 提高了30米范圍內(nèi)物體的檢測精度,從先前的22%到現(xiàn)在的前所未有的74% 。在提交時,我們的算法在KITTI 3D對象檢測排行榜上保持最高條目,用于基于立體圖像的方法。

2.

題目:ApolloCar3D: A Large 3D Car Instance Understanding Benchmark for Autonomous Driving(數(shù)據(jù)集)

作者:Xibin Song, Peng Wang, Dingfu Zhou, Rui Zhu, Chenye Guan, Yuchao Dai, Hao Su, Hongdong Li, Ruigang Yang論文鏈接:https://arxiv.org/abs/1811.12222

摘要:自動駕駛引起了業(yè)界和學(xué)術(shù)界的極大關(guān)注。一個重要的任務(wù)是估計道路上移動或停放的車輛的3D特性(例如,翻譯,旋轉(zhuǎn)和形狀)。這項任務(wù)雖然至關(guān)重要,但在計算機視覺領(lǐng)域仍未得到充分研究 - 部分原因在于缺乏適合自動駕駛研究的大規(guī)模和完全注釋的3D汽車數(shù)據(jù)庫。在本文中,我們貢獻了第一個適合3D汽車實例理解的大型數(shù)據(jù)庫 - ApolloCar3D。該數(shù)據(jù)集包含5,277個駕駛圖像和超過60K的汽車實例,其中每輛汽車都配備了具有絕對模型尺寸和語義標記關(guān)鍵點的行業(yè)級3D CAD模型。該數(shù)據(jù)集比PASCAL3D +和KITTI(現(xiàn)有技術(shù)水平)大20倍以上。為了在3D中實現(xiàn)高效標記,我們通過考慮單個實例的2D-3D關(guān)鍵點對應(yīng)關(guān)系和多個實例之間的3D關(guān)系來構(gòu)建管道。配備這樣的數(shù)據(jù)集,我們使用最先進的深度卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建各種基線算法。具體來說,我們首先使用預(yù)先訓(xùn)練的Mask R-CNN對每輛車進行分段,然后基于可變形的3D汽車模型,使用或不使用語義關(guān)鍵點,對其3D姿勢和形狀進行回歸。研究表明,使用關(guān)鍵點可以顯著提高擬合性能。最后,我們開發(fā)了一個新的3D度量,共同考慮3D姿勢和3D形狀,允許進行全面的評估和消融研究。

3.

題目:SR-LSTM: State Refinement for LSTM towards Pedestrian Trajectory Prediction(行人預(yù)測)

作者:Pu Zhang, Wanli Ouyang, Pengfei Zhang, Jianru Xue, Nanning Zheng

論文鏈接:https://arxiv.org/abs/1903.02793

摘要:在人群場景中,行人的可靠軌跡預(yù)測需要深刻理解他們的社交行為。大量研究已經(jīng)很好地研究了這些行為,而規(guī)則很難充分表達。最近基于LSTM網(wǎng)絡(luò)的研究表明,學(xué)習(xí)社交行為的能力很強。然而,這些方法中的許多方法依賴于先前的相鄰隱藏狀態(tài),但忽略了鄰居的重要當前意圖。為了解決這個問題,我們提出了一個用于LSTM網(wǎng)絡(luò)(SR-LSTM)的數(shù)據(jù)驅(qū)動狀態(tài)細化模塊,它激活了對鄰居當前意圖的利用,并共同和迭代地改進了人群中所有參與者的當前狀態(tài)。通過消息傳遞機制。為了有效地提取鄰居的社會影響,我們進一步介紹了一種社會意識信息選擇機制,包括逐元素運動門和行人注意力,以便從鄰近的行人中選擇有用的信息。兩個公共數(shù)據(jù)集(即ETH和UCY)的實驗結(jié)果證明了我們提出的SR-LSTM的有效性,并且我們實現(xiàn)了最先進的結(jié)果。

4.

題目:Selective Sensor Fusion for Neural Visual-Inertial Odometry(視覺慣性測距)

作者:Changhao Chen,Stefano Rosa,Yishu Miao,Chris Xiaoxuan Lu,Wei Wu,Andrew Markham,Niki Trigoni

論文鏈接:https://arxiv.org/abs/1903.01534

摘要:視覺慣性測距(VIO)的深度學(xué)習(xí)方法已被證明是成功的,但他們很少專注于結(jié)合穩(wěn)健的融合策略來處理不完美的輸入感覺數(shù)據(jù)。我們提出了一種新穎的端對端選擇性傳感器融合框架,用于單眼VIO,融合單眼圖像和慣性測量,以估計軌跡,同時提高對實際問題的魯棒性,如丟失和損壞的數(shù)據(jù)或不良的傳感器同步。特別地,我們提出了兩種基于不同掩蔽策略的融合模態(tài):確定軟性融合和隨機硬融合,并與先前提出的直接融合基線進行比較。在測試期間,網(wǎng)絡(luò)能夠選擇性地處理可用傳感器模態(tài)的特征并且產(chǎn)生大規(guī)模的軌跡。我們對三種公共自動駕駛,微型飛行器(MAV)和手持VIO數(shù)據(jù)集的性能進行了全面調(diào)查。結(jié)果證明了融合策略的有效性,與直接融合相比,其提供了更好的性能,特別是在存在損壞的數(shù)據(jù)的情況下。此外,我們通過可視化不同場景中的掩蔽層和不同的數(shù)據(jù)損壞來研究融合網(wǎng)絡(luò)的可解釋性,揭示融合網(wǎng)絡(luò)與不完美的傳感輸入數(shù)據(jù)之間的有趣相關(guān)性。

5.

題目:DeepMapping: Unsupervised Map Estimation From Multiple Point Clouds作者:Li Ding, Chen Feng論文鏈接:https://arxiv.org/abs/1811.11397項目鏈接:https://ai4ce.github.io/DeepMapping/

摘要:我們提出DeepMapping,一種新穎的注冊框架,使用深度神經(jīng)網(wǎng)絡(luò)(DNN)作為輔助功能,將多點云從頭開始對齊到全局一致的幀。我們使用DNN來模擬高度非凸映射過程,該過程傳統(tǒng)上涉及手工制作的數(shù)據(jù)關(guān)聯(lián),傳感器姿態(tài)初始化和全局細化。我們的關(guān)鍵新穎之處在于,正確定義無監(jiān)督損失以通過反向傳播來“訓(xùn)練”這些DNN等同于解決基礎(chǔ)注冊問題,但是對ICP的要求實現(xiàn)良好初始化的依賴性更小。我們的框架包含兩個DNN:一個估計輸入點云姿態(tài)的本地化網(wǎng)絡(luò),以及一個通過估計全局坐標的占用狀態(tài)來模擬場景結(jié)構(gòu)的地圖網(wǎng)絡(luò)。這允許我們將配準問題轉(zhuǎn)換為二進制占用分類,這可以使用基于梯度的優(yōu)化來有效地解決。我們進一步表明,通過在連續(xù)點云之間施加幾何約束,可以很容易地擴展DeepMapping以解決激光雷達SLAM的問題。在模擬和真實數(shù)據(jù)集上進行實驗。定性和定量比較表明,與現(xiàn)有技術(shù)相比,DeepMapping通常能夠?qū)崿F(xiàn)更加穩(wěn)健和準確的多點云全局注冊。在模擬和真實數(shù)據(jù)集上進行實驗。定性和定量比較表明,與現(xiàn)有技術(shù)相比,DeepMapping通常能夠?qū)崿F(xiàn)更加穩(wěn)健和準確的多點云全局注冊。在模擬和真實數(shù)據(jù)集上進行實驗。定性和定量比較表明,與現(xiàn)有技術(shù)相比,DeepMapping通常能夠?qū)崿F(xiàn)更加穩(wěn)健和準確的多點云全局注冊。

6.

題目:Stereo R-CNN based 3D Object Detection for Autonomous Driving

作者:Peiliang Li, Xiaozhi Chen, Shaojie Shen

研究機構(gòu):香港科技大學(xué)、大疆

論文下載鏈接:

https://arxiv.org/abs/1902.09738

摘要 :我們通過充分利用立體圖像中的稀疏,密集,語義和幾何信息,提出了一種用于自動駕駛的三維物體檢測方法。 我們的方法,稱為Stereo R-CNN,擴展了更快的R-CNN用于立體聲輸入,以同時檢測和關(guān)聯(lián)左右圖像中的對象。 我們在立體聲區(qū)域提議網(wǎng)絡(luò)(RPN)之后添加額外分支來預(yù)測稀疏關(guān)鍵點,視點和對象維度,這些關(guān)鍵點與2D左右框組合以計算粗略的3D對象邊界框。 然后,我們通過使用左右RoI的基于區(qū)域的光度對準來恢復(fù)精確的3D邊界框。 我們的方法不需要深度輸入和3D位置監(jiān)控,但是,優(yōu)于所有現(xiàn)有的完全監(jiān)督的基于圖像的方法。 在具有挑戰(zhàn)性的KITTI數(shù)據(jù)集上的實驗表明,我們的方法在3D檢測和3D定位任務(wù)上的性能優(yōu)于最先進的基于立體的方法約30%AP。

7.

題目:Group-wise Correlation Stereo Network

作者:Xiaoyang Guo,Kai Yang,Wukui Yang,Xiaogang Wang,Hongsheng Li

團隊:香港中文大學(xué)電子工程系、商湯科技

論文鏈接:https://arxiv.org/abs/1903.04025

摘要:立體匹配估計整流圖像對之間的差異,這對深度感測、自動駕駛和其他相關(guān)任務(wù)非常重要。先前的工作建立了在所有視差水平上具有交叉相關(guān)或串聯(lián)左右特征的成本量,然后利用2D或3D卷積神經(jīng)網(wǎng)絡(luò)來回歸視差圖。在本文中,我們建議通過分組相關(guān)來構(gòu)建成本量。左邊特征和右邊特征沿著通道維度被分成組,并且在每個組之間計算相關(guān)圖以獲得多個匹配成本提議,然后將其打包到成本量中。分組相關(guān)為測量特征相似性提供了有效的表示,并且不會丟失過多的信息,如完全相關(guān)。與以前的方法相比,它在減少參數(shù)時也能保持更好的性能。在先前的工作中提出的3D堆疊沙漏網(wǎng)絡(luò)被改進以提高性能并降低推理計算成本。實驗結(jié)果表明,我們的方法在Scene Flow,KITTI 2012和KITTI 2015數(shù)據(jù)集上優(yōu)于以前的方法。此代碼可通過xy-guo/GwcNet(代碼待更新)獲得。

8.

題目:Hierarchical Discrete Distribution Decomposition for Match Density Estimation研究結(jié)構(gòu):伯克利DeepDrive作者:Zhichao Yin

論文鏈接:https://arxiv.org/abs/1812.06264

摘要:用于像素對應(yīng)的現(xiàn)有深度學(xué)習(xí)方法輸出運動場的點估計,但不表示完全匹配分布。匹配分布的顯式表示對于許多應(yīng)用是期望的,因為它允許直接表示對應(yīng)概率。使用深度網(wǎng)絡(luò)估計全概率分布的主要困難是推斷整個分布的高計算成本。在本文中,我們提出了分層離散分布分解,稱為HD3,以學(xué)習(xí)概率點和區(qū)域匹配。它不僅可以模擬匹配不確定性,還可以模擬區(qū)域傳播。為了實現(xiàn)這一點,我們估計了不同圖像尺度下像素對應(yīng)的層次分布,而沒有多假設(shè)集合。盡管它很簡單,但我們的方法可以在既定基準上實現(xiàn)光流和立體匹配的競爭結(jié)果,而估計的不確定性是錯誤的良好指標。此外,即使區(qū)域在圖像上變化,也可以將區(qū)域內(nèi)的點匹配分布組合在一起以傳播整個區(qū)域。

9.

題目:Deep Rigid Instance Scene Flow

研究機構(gòu):Uber ATG部門、MIT、多倫多大學(xué)

作者:Wei-Chiu Ma、Shenlong Wang 、Rui Hu、Yuwen Xiong、 Raquel Urtasun

論文鏈接:

https://people.csail.mit.edu/weichium/papers/cvpr19-drisf/paper.pdf

摘要:在本文中,我們解決了自動駕駛環(huán)境下的場景流量估計問題。 我們利用深度學(xué)習(xí)技術(shù)以及強大的先驗,因為在我們的應(yīng)用領(lǐng)域中,場景的運動可以由機器人的運動和場景中的演員的3D運動來組成。 我們將問題表達為深度結(jié)構(gòu)化模型中的能量最小化,這可以通過展開高斯 - 牛頓求解器在GPU中有效地求解。 我們在具有挑戰(zhàn)性的KITTI場景流數(shù)據(jù)集中的實驗表明,我們以超大的優(yōu)勢超越了最先進的技術(shù),同時快了800倍。

10.

題目:MagicVO: End-to-End Monocular Visual Odometry through Deep Bi-directional Recurrent Convolutional Neural Network(單目視覺測距)

作者:Jian Jiao,Jichao Jiao,Yaokai Mo,Weilun Liu,Zhongliang Deng

研究結(jié)構(gòu):北郵

論文鏈接:https://arxiv.org/abs/1811.10964

摘要:本文提出了一種解決單眼視覺測距問題的新框架,稱為MagicVO。 基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)和雙向LSTM(Bi-LSTM),MagicVO在攝像機的每個位置輸出6-DoF絕對標度姿勢,并以一系列連續(xù)單目圖像作為輸入。 它不僅利用CNN在圖像特征處理中的出色表現(xiàn),充分提取圖像幀的豐富特征,而且通過Bi-LSTM從圖像序列前后學(xué)習(xí)幾何關(guān)系,得到更準確的預(yù)測。 MagicVO的管道如圖1所示.MagicVO系統(tǒng)是端到端的,KITTI數(shù)據(jù)集和ETH-asl cla數(shù)據(jù)集的實驗結(jié)果表明MagicVO比傳統(tǒng)的視覺測距具有更好的性能( VO)系統(tǒng)在姿態(tài)的準確性和泛化能力方面。

11.

題目:SSA-CNN: Semantic Self-Attention CNN for Pedestrian Detection

作者:Chengju Zhou,Meiqing Wu,Siew-Kei Lam研究機構(gòu):南洋理工大學(xué)

論文鏈接:https://arxiv.org/abs/1902.09080v1

摘要:行人檢測在諸如自動駕駛的許多應(yīng)用中起著重要作用。我們提出了一種方法,將語義分割結(jié)果作為自我關(guān)注線索進行探索,以顯著提高行人檢測性能。具體而言,多任務(wù)網(wǎng)絡(luò)被設(shè)計為從具有弱框注釋的圖像數(shù)據(jù)集聯(lián)合學(xué)習(xí)語義分割和行人檢測。語義分割特征圖與相應(yīng)的卷積特征圖連接,為行人檢測和行人分類提供更多的辨別特征。通過聯(lián)合學(xué)習(xí)分割和檢測,我們提出的行人自我關(guān)注機制可以有效識別行人區(qū)域和抑制背景。此外,我們建議將來自多尺度層的語義注意信息結(jié)合到深度卷積神經(jīng)網(wǎng)絡(luò)中以增強行人檢測。實驗結(jié)果表明,該方法在Caltech數(shù)據(jù)集上獲得了6.27%的最佳檢測性能,并在CityPersons數(shù)據(jù)集上獲得了競爭性能,同時保持了較高的計算效率。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 計算機視覺
    +關(guān)注

    關(guān)注

    9

    文章

    1715

    瀏覽量

    47663
  • 論文
    +關(guān)注

    關(guān)注

    1

    文章

    103

    瀏覽量

    15425
  • 自動駕駛
    +關(guān)注

    關(guān)注

    794

    文章

    14917

    瀏覽量

    180354

原文標題:CVPR 2019 無人駕駛相關(guān)論文合集(附下載鏈接)

文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    時間同步在無人駕駛領(lǐng)域的應(yīng)用

    時間同步在無人駕駛領(lǐng)域的應(yīng)用及其重要性。、時間同步技術(shù)的概念時間同步技術(shù)是指通過某種方法使多個設(shè)備或系統(tǒng)的時間保持致的過程。在無人駕駛
    的頭像 發(fā)表于 03-19 16:22 ?37次閱讀
    時間同步在<b class='flag-5'>無人駕駛</b><b class='flag-5'>領(lǐng)域</b>的應(yīng)用

    格陸博科技榮獲2025低速無人駕駛行業(yè)TOP20核心供應(yīng)鏈獎

    近日,由低速無人駕駛產(chǎn)業(yè)聯(lián)盟主辦,新戰(zhàn)略低速無人駕駛產(chǎn)業(yè)研究所、新戰(zhàn)略低速無人駕駛全媒體承辦的“新戰(zhàn)略·金石獎 | 2025低速無人駕駛行業(yè)
    的頭像 發(fā)表于 12-24 15:43 ?2461次閱讀

    佑駕創(chuàng)新助力低速無人駕駛行業(yè)高質(zhì)量發(fā)展

    12月19日,2025低速無人駕駛行業(yè)發(fā)展年會在武漢啟幕,佑駕創(chuàng)新(2431.HK)作為自動駕駛企業(yè)代表受邀參會。在這場匯聚行業(yè)智慧的盛會上,公司參與編撰的《2025-2026年無人配送車技術(shù)應(yīng)用與趨勢洞察藍皮書》、《低速
    的頭像 發(fā)表于 12-24 15:37 ?441次閱讀

    礦卡無人駕駛從理論到落地的全過程記錄(轉(zhuǎn)載)

    去年8月份,我跟著公司團隊去內(nèi)蒙古個露天煤礦做無人駕駛改造項目,那是我第次真正接觸礦卡無人駕駛這個領(lǐng)域。說實話,現(xiàn)場的震撼感比想象中強烈
    的頭像 發(fā)表于 11-21 14:53 ?1175次閱讀
    礦卡<b class='flag-5'>無人駕駛</b>從理論到落地的全過程記錄(轉(zhuǎn)載)

    小馬智行無人駕駛車參與第十五屆全運會火炬?zhèn)鬟f

    盞燃著全運會圣火的火種燈,段6.8公里的無人駕駛行程,同時與小馬智行的無人駕駛車聯(lián)系起來,共同創(chuàng)造了全運會新的歷史——
    的頭像 發(fā)表于 11-04 14:01 ?769次閱讀

    2025無人駕駛技術(shù)細節(jié)及發(fā)展趨勢|(星創(chuàng)易聯(lián)細節(jié)解析)

    2025年了 。 讓我們 拋開那些華麗的PPT和煽情的新聞稿,看看無人駕駛技術(shù)的真實現(xiàn)狀到底如何。畢竟,技術(shù)不會因為喊口號而突破,現(xiàn)實也不會因為資本追捧而改變。 感知系統(tǒng):堆傳感器就能解決問題? 目前的無人駕駛車輛上,攝像頭、毫
    的頭像 發(fā)表于 09-26 15:17 ?568次閱讀
    2025<b class='flag-5'>無人駕駛</b>技術(shù)細節(jié)及發(fā)展趨勢|(星創(chuàng)易聯(lián)細節(jié)解析)

    無人駕駛:智能決策與精準執(zhí)行的融合

    與車輛控制。 1. 環(huán)境感知與數(shù)據(jù)融合 無人駕駛通過多傳感器(激光雷達、攝像頭、毫米波雷達等)獲取周圍環(huán)境數(shù)據(jù)。傳感器融合技術(shù)將不同來源的數(shù)據(jù)整合,形成統(tǒng)的環(huán)境模型,精確識別道路、障礙物、交通標志等信息。高精度定位
    的頭像 發(fā)表于 09-19 14:03 ?768次閱讀

    磁柵尺在數(shù)控機床領(lǐng)域的應(yīng)用案例,一起來看看吧!

    磁柵尺在數(shù)控機床領(lǐng)域的應(yīng)用案例:某汽車零部件企業(yè)曲軸加工:某汽車零部件企業(yè)在數(shù)控銑床、加工中心等設(shè)備中加裝法國雷恩磁柵尺,可實時反饋刀具位置,將重復(fù)定位精度提升至 ±0.01mm,有效減少了因機械磨損導(dǎo)致的加工誤差,使曲軸加工合格率從 92% 提升至 99.6%。
    的頭像 發(fā)表于 09-15 15:02 ?704次閱讀
    磁柵尺在數(shù)控機床<b class='flag-5'>領(lǐng)域</b>的應(yīng)用案例,<b class='flag-5'>一起來看看</b>吧!

    智芯公司榮獲ICEPT 2025優(yōu)秀論文

    Conductivity Design Optimization and Interconnect Process Exploration”(引線鍵合平面柵格陣列系統(tǒng)級封裝高可靠與高導(dǎo)熱設(shè)計優(yōu)化及互連工藝探索)憑借高導(dǎo)熱高可靠性封裝技術(shù)的創(chuàng)新性研究成果,榮獲優(yōu)秀論文獎。
    的頭像 發(fā)表于 08-26 11:22 ?1300次閱讀

    臂螺旋天線:為無人駕駛機器打造高精度導(dǎo)航新體驗

    無人駕駛機器(包括無人機、無人車、無人艇等)快速發(fā)展的今天,穩(wěn)定、精準的通信與導(dǎo)航能力成為關(guān)鍵。四臂螺旋天線(Quadrifilar H
    發(fā)表于 08-08 15:05 ?0次下載

    智行者科技無人駕駛小巴落地海南

    。這條串聯(lián)城市地標的示范線路,正是智行者以"無人駕駛大腦"重塑日常公共出行的縮影——通過高效、安全、可持續(xù)的無人駕駛小巴,為智能出行注入全新動能。
    的頭像 發(fā)表于 06-11 10:34 ?1633次閱讀

    什么是低速無人駕駛,讓你分鐘秒懂 #無人駕駛 #5g無人駕駛 #低速無人駕駛

    無人駕駛
    星創(chuàng)易聯(lián)
    發(fā)布于 :2025年06月05日 15:27:49

    無人駕駛技術(shù)未來在哪里?低速才是突破口

    環(huán)境,速度般不超過30公里每小時。正因為環(huán)境可控、速度較低,低速無人駕駛成為自動駕駛技術(shù)真正“跑起來”的突破口。 低速無人駕駛的基礎(chǔ),是
    的頭像 發(fā)表于 05-23 15:38 ?818次閱讀
    <b class='flag-5'>無人駕駛</b>技術(shù)未來在哪里?低速才是突破口

    無人駕駛解決方案包含哪些方面?感知、決策與控制

    、數(shù)據(jù)處理、安全機制、商業(yè)模式以及配套政策等多方面的完整生態(tài)體系。本文將全面剖析無人駕駛解決方案的各個組成部分,特別聚焦5G網(wǎng)絡(luò)在其中扮演的關(guān)鍵角色,以期為行業(yè)發(fā)展提供系統(tǒng)性的思考框架。 無人駕駛技術(shù)架構(gòu)層:感
    的頭像 發(fā)表于 04-14 10:21 ?1830次閱讀
    <b class='flag-5'>無人駕駛</b>解決方案包含哪些<b class='flag-5'>方面</b>?感知、決策與控制

    無人小車將電動車拖行!自動駕駛如何安全人機混行?

    [本文首發(fā)于智駕最前沿微信公眾號]隨著人工智能技術(shù)和傳感器技術(shù)的不斷突破,無人駕駛汽車的發(fā)展進入了個前所未有的快車道。自動駕駛技術(shù)不僅以高速NOA、城市NOA等形式應(yīng)用于乘用車
    的頭像 發(fā)表于 04-12 09:30 ?951次閱讀
    <b class='flag-5'>無人</b>小車將電動車拖行!自動<b class='flag-5'>駕駛</b>如何安全人機混行?