91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一份指南,鼓勵大家在家訓練自動駕駛系統(tǒng)的感知能力

ml8z_IV_Technol ? 來源:未知 ? 作者:李倩 ? 2018-06-05 10:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自動駕駛汽車依靠攝像頭、激光雷達以及雷達等等傳感器來感知周圍的變化,感知能力對自動駕駛來說非常重要。本文是一份指南,鼓勵大家在家訓練自動駕駛系統(tǒng)的感知能力。

△神秘的視覺

感知,大概就是感受到周遭正在發(fā)生什么的一種能力。這項技能對自動駕駛來說太重要了。

自動駕駛汽車依靠攝像頭、激光雷達以及雷達等等傳感器來感知周圍的變化。

一位名叫凱爾 (Kyle Stewart-Frantz) 的大叔,準備了一份指南,鼓勵大家在家訓練自動駕駛系統(tǒng)的感知能力。

當然,這個手冊并不是他出于愛好寫出來的,是隨著Lyft和Udacity聯(lián)合發(fā)起的感知挑戰(zhàn)賽(Lyft Perception Challenge),而生的。

比賽考驗的就是系統(tǒng)能不能準確地感受到,可以行駛的路面在哪里,周圍的汽車在哪里。

挑戰(zhàn)賽中,能夠倚仗的所有數(shù)據(jù),都來自車載的前向攝像頭。

攝像頭不存在?

這里的“攝像頭數(shù)據(jù)”并非真實攝像頭記錄的影像,而是一個名為CARLA的模擬器生成的圖景。

畢竟,自動駕駛汽車的軟件開發(fā)大多是在模擬器中進行的,那里快速的原型設計和迭代,比在現(xiàn)實世界里使用真實硬件要高效得多。

那么,來看一下CARLA給的數(shù)據(jù)長什么樣——

左邊是模擬攝像頭捕捉的畫面,右邊則是與之對應的、標記好的圖像。

用這樣的數(shù)據(jù)來訓練算法,讓AI能夠在從未見過的新鮮圖像里,判斷出哪些像素對應的是道路,哪些部分對應的是其他車輛。

這就是挑戰(zhàn)賽的目標。

車前蓋太搶鏡?

要完成比賽任務,自然會想到語義分割。用這種方式來訓練神經(jīng)網(wǎng)絡,成熟后的AI便可以判斷每個像素里包含的物體了。

第一步,是對標記好的圖像做預處理。比如,因為設定是“車載前向攝像頭”拍下的畫面,每一幅圖像都會出現(xiàn)車前蓋,可是如果這樣就把所有圖像判定為“車”,就不太好了。

所以要把顯示車前蓋的那些像素的值設為零,或者貼上其他的“非車”標簽。

第二步,車道標識和道路的值是不一樣的,但我們希望這些標識,可以被識別為路面的一部分。

△這不是給汽車的指示,但也太隨性了

所以,要把車道標識和路面,貼上一樣的標簽。

Python寫出來,預處理功能就長這樣——

1def preprocess_labels(label_image): 2 labels_new = np.zeros_like(label_image) 3 # Identify lane marking pixels (label is 6) 4 lane_marking_pixels = (label_image[:,:,0] == 6).nonzero() 5 # Set lane marking pixels to road (label is 7) 6 labels_new[lane_marking_pixels] = 7 7 8 # Identify all vehicle pixels 9 vehicle_pixels = (label_image[:,:,0] == 10).nonzero()10 # Isolate vehicle pixels associated with the hood (y-position > 496)11 hood_indices = (vehicle_pixels[0] >= 496).nonzero()[0]12 hood_pixels = (vehicle_pixels[0][hood_indices], 13 vehicle_pixels[1][hood_indices])14 # Set hood pixel labels to 015 labels_new[hood_pixels] = 016 # Return the preprocessed label image 17 return labels_new

預處理過后的結(jié)果,就是標記和之前的不太一樣了。

準備活動做好了,神經(jīng)網(wǎng)絡的正式訓練也就可以開始了。

誰是分類小公主?

那么,大叔選的是怎樣的神經(jīng)網(wǎng)絡?

定制一個FCN-Alexnet或許是個不錯的選項,它擅長把每個像素分到不同的類別里。

循著以下鏈接,可以找到這個模型的詳細信息——

代碼:

https://github.com/shelhamer/fcn.berkeleyvision.org/tree/master/voc-fcn-alexnet

論文:

https://arxiv.org/pdf/1605.06211.pdf

大叔用一個隨機梯度下降solver,把全部訓練數(shù)據(jù)跑了10次(10 epochs) ,基礎(chǔ)學習率設的是0.0001。

評估訓練成果

拿訓練好的神經(jīng)網(wǎng)絡去跑驗證數(shù)據(jù),凱爾得到了0.6685的F2值,以及0.9574的F0.5值 (前者更重視召回率,后者更重視準確率) 。系統(tǒng)每秒處理6.06幅圖像。

當然,視頻會比這些數(shù)字更加生動

然后還想怎樣?

大叔說,要讓神經(jīng)網(wǎng)絡表現(xiàn)更好,將來會搜集更多數(shù)據(jù),涉及更加豐富的路況。

另外,要進行一系列的數(shù)據(jù)增強,讓數(shù)據(jù)和數(shù)據(jù)之間的差異更加明顯。

關(guān)于神經(jīng)網(wǎng)絡的結(jié)構(gòu),也還有其他選擇,比如為細粒度預測而生的FCN-8,值得嘗試。

還有,可以引入時態(tài)數(shù)據(jù)(光流) ,來減少推斷需要的幀數(shù),同時保持比較高的準確度。

模擬器不夠真?

當然,只有模擬器也是不夠的,自動駕駛系統(tǒng)終究要接受現(xiàn)實的考驗。

面對真實攝像頭傳出的畫面,系統(tǒng)的辨識結(jié)果并沒有非常理想。不過在許多幀里面,神經(jīng)網(wǎng)絡都能夠在一定程度上,辨認出道路和車輛。

真實世界和模擬器里的駕駛場景,還是不一樣的。

如果模擬器生成的圖像和現(xiàn)實更加接近的話,可能結(jié)果就會好一些了。

不難看到,在和模擬器設定更為接近的路況下,系統(tǒng)的表現(xiàn)還是很不錯的。

如此看來,這只AI還是很有前途。只要把模擬器造得更貼近真實,神經(jīng)網(wǎng)絡應該就能得到更有效的訓練。

這里提供一段代碼,可以用來查看,算法跑出的結(jié)果到底怎么樣——

1from moviepy.editor import VideoFileClip, ImageSequenceClip 2import numpy as np 3import scipy, argparse, sys, cv2, os 4 5file = sys.argv[-1] 6 7if file == 'demo.py': 8 print ("Error loading video") 9 quit1011def your_pipeline(rgb_frame):1213 ## Your algorithm here to take rgb_frame and produce binary array outputs!1415 out = your_function(rgb_frame)1617 # Grab cars18 car_binary_result = np.where(out==10,1,0).astype('uint8')19 car_binary_result[496:,:] = 020 car_binary_result = car_binary_result * 2552122 # Grab road23 road_lines = np.where((out==6),1,0).astype('uint8')24 roads = np.where((out==7),1,0).astype('uint8')25 road_binary_result = (road_lines | roads) * 2552627 overlay = np.zeros_like(rgb_frame)28 overlay[:,:,0] = car_binary_result29 overlay[:,:,1] = road_binary_result3031 final_frame = cv2.addWeighted(rgb_frame, 1, overlay, 0.3, 0, rgb_frame)3233 return final_frame3435# Define pathname to save the output video36output = 'segmentation_output_test.mp4'37clip1 = VideoFileClip(file)38clip = clip1.fl_image(your_pipeline)39clip.write_videofile(output, audio=False)

用到的可視化數(shù)據(jù)在這里:https://s3-us-west-1.amazonaws.com/udacity-selfdrivingcar/Lyft_Challenge/videos/Videos.tar.gz

你也一起來吧?

當然,作為Lyft感知挑戰(zhàn)賽的研發(fā)負責人,凱爾大叔這番苦口婆心的目的,還是吸引更多的小伙伴摻和進來。

道路安全,人人有責。大概就是這個意思,吧。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關(guān)注

    關(guān)注

    2577

    文章

    55311

    瀏覽量

    793021
  • 激光雷達
    +關(guān)注

    關(guān)注

    981

    文章

    4516

    瀏覽量

    196820
  • 自動駕駛
    +關(guān)注

    關(guān)注

    794

    文章

    14938

    瀏覽量

    180785

原文標題:自動駕駛感知訓練指南:不許你歧視車道線,那也是路面的一部分

文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    時間同步如何讓自動駕駛感知系統(tǒng)認知統(tǒng)?

    [首發(fā)于智駕最前沿微信公眾號]在探討自動駕駛時,人們關(guān)注比較多的是算法的先進性或算力的強弱,但在其底層,有個決定了系統(tǒng)成敗的基礎(chǔ)設施,即時間同步。 自動駕駛
    的頭像 發(fā)表于 03-22 09:33 ?1127次閱讀
    時間同步如何讓<b class='flag-5'>自動駕駛</b><b class='flag-5'>感知</b><b class='flag-5'>系統(tǒng)</b>認知統(tǒng)<b class='flag-5'>一</b>?

    自動駕駛感知硬件清潔裝置應如何設計?

    自動駕駛發(fā)展過程中,感知系統(tǒng)的可靠性直是大家討論的熱點。盡管目前的傳感器在探測距離、分辨率和響應速度上已經(jīng)取得了長足進步,但有
    的頭像 發(fā)表于 03-09 17:08 ?854次閱讀

    為什么光照對純視覺自動駕駛影響較大?

    自動駕駛的技術(shù)路線中,純視覺方案因其模仿人類駕駛邏輯與低廉的硬件成本,直是很多車企的選擇。但這種高度依賴攝像頭的感知方式,在夜幕降臨、車輛駛?cè)胗陌档乃淼?,或是遭遇強烈的逆光直射、?/div>
    的頭像 發(fā)表于 03-09 17:06 ?893次閱讀

    SLAM如何為自動駕駛提供空間感知能力?

    ,并精準地判斷自己與障礙物的距離。這種看似本能的空間感知能力,在工程學領(lǐng)域被具象化為同步定位與地圖構(gòu)建技術(shù),即我們常說的SLAM。在自動駕駛的發(fā)展進程中,SLAM不僅是車輛在未知環(huán)境中“生存”的技能,更是其實現(xiàn)厘米級高
    的頭像 發(fā)表于 02-09 09:12 ?484次閱讀
    SLAM如何為<b class='flag-5'>自動駕駛</b>提供空間<b class='flag-5'>感知能力</b>?

    純視覺自動駕駛的優(yōu)勢和劣勢有哪些?

    [首發(fā)于智駕最前沿微信公眾號]最近有很多小伙伴在后臺詢問純視覺自動駕駛的優(yōu)劣,純視覺自動駕駛以其低成本、高冗余的技術(shù)路徑,正成為自動駕駛現(xiàn)階段主要的個發(fā)展方向。但它由于在多個場景下的
    的頭像 發(fā)表于 01-18 09:50 ?2247次閱讀
    純視覺<b class='flag-5'>自動駕駛</b>的優(yōu)勢和劣勢有哪些?

    自動駕駛BEV Camera數(shù)據(jù)采集系統(tǒng):高精度時間同步解決方案

    1 自動駕駛數(shù)據(jù)采集的時間同步挑戰(zhàn)與重要性 隨著自動駕駛技術(shù)的快速發(fā)展,車輛準確感知周圍環(huán)境的能力變得至關(guān)重要。在分布式多傳感器系統(tǒng)中,信號
    的頭像 發(fā)表于 12-11 17:11 ?1394次閱讀
    <b class='flag-5'>自動駕駛</b>BEV Camera數(shù)據(jù)采集<b class='flag-5'>系統(tǒng)</b>:高精度時間同步解決方案

    自動駕駛大模型中常提的泛化能力是指啥?

    [首發(fā)于智駕最前沿微信公眾號]在討論自動駕駛大模型時,常會有幾個評價維度,如感知是否準確、決策是否穩(wěn)定、系統(tǒng)是否足夠魯棒,以及模型有沒有“泛化能力”。相比準確率、延遲這些容易量化的指標
    的頭像 發(fā)表于 12-10 09:15 ?747次閱讀
    <b class='flag-5'>自動駕駛</b>大模型中常提的泛化<b class='flag-5'>能力</b>是指啥?

    自動駕駛感知致是怎么發(fā)生的?

    [首發(fā)于智駕最前沿微信公眾號]為了讓自動駕駛汽車能夠安全行駛,很多技術(shù)方案中會將多個感知硬件加裝到車輛上,以確保自動駕駛汽車感知冗余,但感知
    的頭像 發(fā)表于 09-17 12:45 ?880次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>感知</b>不<b class='flag-5'>一</b>致是怎么發(fā)生的?

    如何確保自動駕駛汽車感知的準確性?

    感知的定義及原理 在聊這個話題之前,我們先聊感知是什么,自動駕駛感知系統(tǒng)就是
    的頭像 發(fā)表于 08-23 15:06 ?1753次閱讀
    如何確保<b class='flag-5'>自動駕駛</b>汽車<b class='flag-5'>感知</b>的準確性?

    自動駕駛數(shù)據(jù)標注主要是標注什么?

    的結(jié)構(gòu)化標簽。這些標簽不僅構(gòu)成了模型訓練與評估的數(shù)據(jù)基礎(chǔ),也直接影響系統(tǒng)在實際道路環(huán)境中的識別、理解和決策能力。準確、系統(tǒng)的數(shù)據(jù)標注能夠有效提升感知
    的頭像 發(fā)表于 07-30 11:54 ?1473次閱讀
    <b class='flag-5'>自動駕駛</b>數(shù)據(jù)標注主要是標注什么?

    自動駕駛感知系統(tǒng)如何設計才能確保足夠安全?

    自動駕駛技術(shù)日益成熟的當下,感知系統(tǒng)的設計與實現(xiàn)已成為確保行車安全的關(guān)鍵環(huán)節(jié)。感知系統(tǒng)不僅承擔著環(huán)境信息采集的重任,更決定了整車對突發(fā)狀況
    的頭像 發(fā)表于 07-24 18:11 ?1091次閱讀

    什么是自動駕駛數(shù)據(jù)標注?如何好做數(shù)據(jù)標注?

    [首發(fā)于智駕最前沿微信公眾號]在自動駕駛系統(tǒng)的開發(fā)過程中,數(shù)據(jù)標注是項至關(guān)重要的工作。它不僅決定了模型訓練的質(zhì)量,也直接影響了車輛感知、決
    的頭像 發(fā)表于 07-09 09:19 ?1535次閱讀
    什么是<b class='flag-5'>自動駕駛</b>數(shù)據(jù)標注?如何好做數(shù)據(jù)標注?

    自動駕駛只用激光雷達進行感知會有哪些問題?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛依賴激光雷達(LiDAR)技術(shù)已成為行業(yè)內(nèi)的主流選擇之。激光雷達通過發(fā)射和接收激光脈沖,繪制周圍環(huán)境的三維點云,為車輛提供精確的空間感知能力。之前和大家
    的頭像 發(fā)表于 07-02 08:59 ?1200次閱讀

    新能源車軟件單元測試深度解析:自動駕駛系統(tǒng)視角

    。 ?自動駕駛軟件的特殊性? ? 感知層: ?激光雷達、攝像頭等傳感器數(shù)據(jù)處理算法的單元測試需覆蓋極端場景。例如,激光雷達點云濾波算法在雨雪天氣下的噪聲抑制能力需通過邊界測試驗證。某廠商曾在測試中遺漏
    發(fā)表于 05-12 15:59

    AI將如何改變自動駕駛?

    自動駕駛帶來哪些變化?其實AI可以改變自動駕駛技術(shù)的各個環(huán)節(jié),從感知能力的提升到?jīng)Q策框架的優(yōu)化,從安全性能的增強到測試驗證的加速,AI可以讓自動駕駛從實驗室走向大規(guī)模商業(yè)化。 對于
    的頭像 發(fā)表于 05-04 09:58 ?957次閱讀