91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

智能駕駛真的需要語言模型嗎?

智駕最前沿 ? 來源:智駕最前沿 ? 作者:智駕最前沿 ? 2026-03-11 09:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

[首發(fā)于智駕最前沿微信公眾號]就在前一段時間,某品牌車語音控制燈光失誤的視頻在網(wǎng)上瘋傳,在深夜的高速公路上,車主只是隨口說了一句“關(guān)閉所有閱讀燈”,想要調(diào)暗車內(nèi)光線。然而,車載語音系統(tǒng)卻出現(xiàn)了一次致命的誤判,它不僅關(guān)掉了車內(nèi)的閱讀燈,連帶著車頭最關(guān)鍵的大燈也一并熄滅。駕駛員在驚恐中連聲呼喊“打開燈光”,但伴隨著車輛撞上護(hù)欄撞擊聲外,只傳來語音助手那溫柔卻又無比機械的回復(fù):“暫時還不會喲”。

這起事故之所以引發(fā)全網(wǎng)熱議,除了發(fā)生事故外,更多是因為它精準(zhǔn)地?fù)糁辛巳藗儗Α败浖x汽車”時代的某種擔(dān)憂。當(dāng)車內(nèi)的物理按鍵消失,當(dāng)燈光、空調(diào)甚至擋位都交給一串代碼和那個看起來聰明的語音助手時,我們真的更安全了嗎?語言模型對于自動駕駛和智能座艙來說,到底是必不可少?還是一個華麗裝飾?

wKgZPGmwweqAQ9W2AAAQo00DEvw513.jpg

為語音助手有時會顯得有點“聾”?

為什么在家里能聽懂你講冷笑話的AI,到了高速公路上有時就成了“半個聾子”。車內(nèi)其實是一個雜音非常多的環(huán)境。當(dāng)車速達(dá)到一百公里每小時,輪胎摩擦地面的胎噪、劃破空氣的風(fēng)噪,以及發(fā)動機或電機的高頻振動會混合成一種巨大的背景噪音。

對于人類耳朵來說,我們有一套極其精密的濾波機制,能自動把同伴的說話聲從噪音中拎出來。但對車載麥克風(fēng)來說,它接收到的是一個混雜了各種波形的信號

在這次的事故視頻中,車主發(fā)出的指令是“關(guān)閉所有閱讀燈”。從普通話的發(fā)音和語義向量來看,“閱讀燈”和“全車燈光”在某些解析算法里可能非常接近。特別是在高速行駛的背景噪音下,聲音的特征碼會發(fā)生扭曲。

wKgZO2mwweqAU86yAAxhRWxI_H8757.jpg

圖片源自:網(wǎng)絡(luò)

語音識別系統(tǒng)(ASR)可能在第一步就把“閱讀”這兩個字的特征給弄丟了,只剩下一個“燈”字和“關(guān)閉”的動作。接著,自然語言理解(NLU)模塊就會根據(jù)概率去猜,最后它猜出了一個權(quán)重最高的動作,即關(guān)閉所有燈光。

其實在整個視頻中,最后一句“暫時還不會喲”的回復(fù)最耐人尋味。這其實反映出了當(dāng)前車載語音系統(tǒng)的另一個技術(shù)軟肋,在極端壓力下的識別能力。當(dāng)燈光熄滅、生死攸關(guān)時,車主會產(chǎn)生劇烈的生理反應(yīng),呼吸急促、音調(diào)升高、語速極快。

傳統(tǒng)的語音模型是基于平穩(wěn)、冷靜的語音庫訓(xùn)練出來的,它們面對這種充滿了恐慌情緒的“求救信號”,會因為置信度太低而觸發(fā)預(yù)設(shè)的兜底回復(fù)。這種預(yù)設(shè)回復(fù)本是為了顯得有親和力,但在那個瞬間,它卻顯得有些不合時宜。

說到底,目前的語音助手還是一個坐在副駕上的“翻譯官”,它只是在翻譯指令,而沒有真正理解這些指令對于一個正在高速移動的車輛意味著什么。

場景 背景噪音水平 語言特征 容錯處理要求 核心挑戰(zhàn)
居家辦公 較低(30~40dB) 語速平緩,日產(chǎn)詞匯 較低,可重復(fù)輸入 遠(yuǎn)場拾音與回聲消除
喧鬧商場 中高(60~70dB) 碎片化、方言多 中等,會有提示 雜亂的人聲干擾
高速行駛 極高(70~85dB) 壓力狀態(tài)下語速極快 極高,涉及行車安全 寬頻噪音掩蓋,情緒特征畸變

wKgZPGmwweuAM3t8AAAR42n7O-I951.jpg

域隔離的崩塌與消失的保命按鍵

很多人不理解,既然語音助手可能聽錯,那為什么它能有權(quán)限直接關(guān)掉行駛中的大燈?這其實涉及到了一個汽車電子架構(gòu)的專業(yè)概念,域隔離。一輛汽車的電子系統(tǒng)通常被劃分為不同的“域”,比如負(fù)責(zé)娛樂、導(dǎo)航、語音的座艙域;負(fù)責(zé)燈光、雨刷、車窗的車身域以及負(fù)責(zé)動力和制動的底盤域。

按照安全邏輯,座艙域應(yīng)該只是一個多話的導(dǎo)游,它不應(yīng)該有權(quán)直接插手駕駛員的“方向盤”和“外燈光”。

然而,為了追求所謂的“全智能交互”,讓車主動動嘴就能控制車內(nèi)的一切,廠家會在座艙域和車身域之間開辟一條通信快速通道。這次事故其實就暴露出這條通道在權(quán)限管理上存在巨大的安全風(fēng)險。

原本屬于高安全等級的大燈控制權(quán),被過于隨意地交給了低安全等級的語音識別模塊。在汽車功能安全標(biāo)準(zhǔn)ISO 26262中,這屬于嚴(yán)重的邏輯缺陷。在車輛處于高速行駛狀態(tài)下,系統(tǒng)不僅沒有對“關(guān)閉大燈”這種危險指令設(shè)置二次確認(rèn),甚至沒有對車速、環(huán)境光線和大燈狀態(tài)進(jìn)行聯(lián)合校驗。

這種“極簡主義”的代價是沉重的。隨著物理按鍵的消失,駕駛員在失去視覺引導(dǎo)時,無法再依靠肌肉記憶通過撥桿打開燈光。事故后,該車企緊急推送了OTA更新,將行駛狀態(tài)下的大燈關(guān)閉權(quán)限修改為“僅支持手動控制”。

wKgZO2mwweuALLZsAABM1W8S1_Y619.jpg

圖片源自:微博

這其實是一種權(quán)力的收回。它說明在現(xiàn)有的技術(shù)條件下,非確定性的語音交互不應(yīng)擁有管理安全核心件的最高權(quán)限。那些被網(wǎng)友稱為“保命按鍵”的物理撥桿,提供的是一種超越軟件算法的物理確定性。在生死瞬間,確定性比所謂的智能更重要。

wKgZPGmwwe2AYSo_AAASG3BOmsQ614.jpg

語言模型是自動駕駛的解藥還是毒藥

既然傳統(tǒng)的語音系統(tǒng)容易聽錯,那最近大熱的大語言模型(LLM)能解決這個問題嗎?在自動駕駛領(lǐng)域,專家們經(jīng)常提到“系統(tǒng)1”和“系統(tǒng)2”。系統(tǒng)1是直覺性的、快速的,就像我們開車時的肌肉記憶,看到紅燈就剎車;系統(tǒng)2是理性的、慢速的,用來處理復(fù)雜的博弈和意料之外的狀況。

目前的自動駕駛和語音助手大多還在系統(tǒng)1的水平。它們是在死板地匹配關(guān)鍵詞。如果你說“關(guān)掉閱讀燈”,它就去匹配那幾個字,一旦聽錯就全盤皆錯。而大模型的意義在于它為汽車裝上了一個具有常識推理能力的“系統(tǒng)2”。如果是搭載了大模型的系統(tǒng),在聽到“關(guān)閉所有燈光”時,它的第一反應(yīng)不是去執(zhí)行,而是進(jìn)行邏輯自檢。

wKgZO2mwwe6AJJ90ANjglQ9o894469.jpg

圖片源自:網(wǎng)絡(luò)

它會調(diào)動視覺傳感器發(fā)現(xiàn)現(xiàn)在是深夜,GPS會告訴它正在高速上,它的常識庫會提示它,在深夜的高速上關(guān)掉大燈是自殺行為。于是,它會拒絕執(zhí)行這個離譜的指令,或者用更有邏輯的方式向車主確認(rèn)。

這種能力被稱為“多模態(tài)理解”。未來的語言模型不再僅僅是處理文字,它會將視覺(攝像頭看到的黑夜)、動作(正在高速行駛的速度)和語義(車主的要求)結(jié)合在一起。這就是大家熟知的VLA(視覺-語言-動作)模型。

但大模型也并非完美。它最大的問題在于“幻覺”。大模型本質(zhì)上是一個概率預(yù)測器,它吐出的每一個指令都是基于統(tǒng)計的最大可能性,而不是邏輯上的絕對必然。

對于駕駛來說,哪怕只有萬分之一的概率出現(xiàn)幻覺,都是不可接受的。所以,大模型在車上的應(yīng)用,目前更多是作為一個“大腦”去思考,而真正的“手腳”控制依然需要嚴(yán)密的硬性代碼邏輯來把關(guān)。

wKgZO2mwwfKAE0LjAAASAJELks8203.jpg

如何在軟件定義的未來里守住安全的底線

要確保語音識別的準(zhǔn)確性和安全性,我們不能只指望AI變得更聰明,還要在系統(tǒng)架構(gòu)上做加法。硬件層面的冗余是非常有必要的,比如通過多麥克風(fēng)陣列的波束成形技術(shù),像探照燈一樣定向采集駕駛員的聲音,以此來抵消外界的寬頻噪音。同時,核心指令的解析必須具備“離線處理”能力,不能因為隧道里沒信號,就無法應(yīng)答和處理。

更核心的改進(jìn)應(yīng)該是語義校驗機制的引入。一個合格的智能座艙,不應(yīng)該只是聽話的助手,而應(yīng)該是有安全底線的管家。系統(tǒng)需要建立一套基于場景的“敏感指令庫”。在高速行駛、雨雪天氣或夜間等特定場景下,所有涉及車輛行駛安全的功能(如大燈、駐車制動、車門開啟等),語音助手的權(quán)限就應(yīng)該是被鎖定的,或者必須經(jīng)過物理確認(rèn)。

此外,我們還必須認(rèn)識到,智能化的目的應(yīng)該是減少人為失誤,而不是增加新的風(fēng)險。當(dāng)車企在追求智能座艙的智能化時,不能忘了汽車只是一種交通工具,其最底層的邏輯永遠(yuǎn)是安全。語言模型確實是未來自動駕駛通往“擬人化”的橋梁,但在橋梁搭建好之前,物理撥桿依然是科技給予我們的最后一份體面。

wKgZO2mwwfKAXEnbAAARwcz1hbg621.jpg

最后的話

科技進(jìn)步不應(yīng)該是一場博取流量的冒險。正如許多老司機所言,最好的科技應(yīng)在平時讓你感覺不到它的存在,但在危急時刻能給你最確定的響應(yīng)。在追逐智能化的浪潮中,我們不能跑得太快。大模型很好,語音控制也很酷,但在那個能讓我們抓牢的物理撥桿面前,它們暫時還只能算是助手,而不是主宰。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 智能駕駛
    +關(guān)注

    關(guān)注

    5

    文章

    3012

    瀏覽量

    51295
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    572

    瀏覽量

    11323
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    如何構(gòu)建適合自動駕駛的世界模型

    [首發(fā)于智駕最前沿微信公眾號]世界模型經(jīng)歷了系統(tǒng)動力學(xué)階段(1960年~2000年)、認(rèn)知科學(xué)階段(2001年~2017年)、深度學(xué)習(xí)階段(2018年至今),但將其應(yīng)用到自動駕駛汽車上,還是近幾年才
    的頭像 發(fā)表于 02-18 08:14 ?1.1w次閱讀
    如何構(gòu)建適合自動<b class='flag-5'>駕駛</b>的世界<b class='flag-5'>模型</b>?

    什么是大模型智能體...?大模型100問,快速全面了解!

    一、概念篇1.什么是大模型?大模型是指參數(shù)規(guī)模巨大(通常達(dá)到數(shù)十億甚至萬億級別)、使用海量數(shù)據(jù)訓(xùn)練而成的人工智能模型。2.什么是大語言
    的頭像 發(fā)表于 02-02 16:36 ?931次閱讀
    什么是大<b class='flag-5'>模型</b>,<b class='flag-5'>智能</b>體...?大<b class='flag-5'>模型</b>100問,快速全面了解!

    黑芝麻智能華山A2000 BaRT工具鏈助力輔助駕駛模型部署

    隨著智駕模型參數(shù)規(guī)模與計算復(fù)雜度指數(shù)級增長,大模型應(yīng)用與車端硬件、性能功耗的矛盾愈發(fā)凸顯,成為技術(shù)量產(chǎn)的關(guān)鍵瓶頸。在此背景下,黑芝麻智能華山A2000 BaRT 工具鏈以 MLIR 框架為基礎(chǔ),為輔助
    的頭像 發(fā)表于 02-02 15:37 ?341次閱讀
    黑芝麻<b class='flag-5'>智能</b>華山A2000 BaRT工具鏈助力輔助<b class='flag-5'>駕駛</b><b class='flag-5'>模型</b>部署

    基于NVIDIA Alpamayo構(gòu)建具備推理能力的輔助駕駛汽車

    輔助駕駛研究領(lǐng)域正經(jīng)歷一場快速變革。視覺-語言-動作推理模型(Reasoning VLA) 的出現(xiàn)正重塑該領(lǐng)域,這些模型為輔助駕駛決策賦予了
    的頭像 發(fā)表于 01-14 09:41 ?2078次閱讀
    基于NVIDIA Alpamayo構(gòu)建具備推理能力的輔助<b class='flag-5'>駕駛</b>汽車

    VLA與世界模型有什么不同?

    [首發(fā)于智駕最前沿微信公眾號]當(dāng)前自動駕駛行業(yè),各車企的技術(shù)路徑普遍選擇了單車智能方向。而在實際落地過程中,不同企業(yè)選擇了差異化的技術(shù)實現(xiàn)方式,部分車企側(cè)重于視覺—語言—動作模型(Vi
    的頭像 發(fā)表于 12-17 09:13 ?645次閱讀
    VLA與世界<b class='flag-5'>模型</b>有什么不同?

    模型中常提的快慢思考會對自動駕駛產(chǎn)生什么影響?

    2024年7月,理想汽車發(fā)布的基于端到端模型、VLM視覺語言模型和世界模型的全新自動駕駛技術(shù)架構(gòu)標(biāo)志著其全棧自研的
    的頭像 發(fā)表于 11-22 10:59 ?2510次閱讀
    大<b class='flag-5'>模型</b>中常提的快慢思考會對自動<b class='flag-5'>駕駛</b>產(chǎn)生什么影響?

    VLA和世界模型,誰才是自動駕駛的最優(yōu)解?

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)發(fā)展,其實現(xiàn)路徑也呈現(xiàn)出兩種趨勢,一邊是以理想、小鵬、小米為代表的VLA(視覺—語言—行動)模型路線;另一邊則是以華為、蔚來為主導(dǎo)的世界模型
    的頭像 發(fā)表于 11-05 08:55 ?795次閱讀
    VLA和世界<b class='flag-5'>模型</b>,誰才是自動<b class='flag-5'>駕駛</b>的最優(yōu)解?

    小白學(xué)大模型:從零實現(xiàn) LLM語言模型

    在當(dāng)今人工智能領(lǐng)域,大型語言模型(LLM)的開發(fā)已經(jīng)成為一個熱門話題。這些模型通過學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成自然語言文本,完成各種復(fù)雜的任
    的頭像 發(fā)表于 04-30 18:34 ?1321次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:從零實現(xiàn) LLM<b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    AUDI攜手Momenta打造豪華智能輔助駕駛新范式

    近日,奧迪新品牌AUDI攜手全球領(lǐng)先的智能駕駛公司Momenta正式宣布,聯(lián)合打造行業(yè)首個“德系電動豪華標(biāo)準(zhǔn)+飛輪大模型智能輔助駕駛方案,
    的頭像 發(fā)表于 04-27 10:17 ?859次閱讀

    如何借助大語言模型打造人工智能生態(tài)系統(tǒng)

    、硬件需求以及所涉及的財務(wù)影響這三者之間的內(nèi)在聯(lián)系。我們將深入探究現(xiàn)實中大語言模型的發(fā)展趨勢,并共同探討如何借助規(guī)模更小、效能更高的模型,打造一個更具可持續(xù)性的人工智能生態(tài)系統(tǒng)。
    的頭像 發(fā)表于 04-27 09:19 ?1100次閱讀
    如何借助大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>打造人工<b class='flag-5'>智能</b>生態(tài)系統(tǒng)

    模型如何推動自動駕駛技術(shù)革新?

    [首發(fā)于智駕最前沿微信公眾號]近年來,人工智能技術(shù)正以前所未有的速度在各個領(lǐng)域滲透與應(yīng)用,而大模型(大語言模型和多模態(tài)大模型)的迅猛發(fā)展為自
    的頭像 發(fā)表于 04-20 13:16 ?1038次閱讀
    大<b class='flag-5'>模型</b>如何推動自動<b class='flag-5'>駕駛</b>技術(shù)革新?

    智能體仿真中的統(tǒng)一混合模型框架研究

    隨著GPT大語言模型的成功,越來越多的工作嘗試使用類GPT架構(gòu)的離散模型來表征駕駛場景中的交通參與者行為,從而生成多智能體仿真。這些方法展現(xiàn)
    的頭像 發(fā)表于 04-01 14:31 ?842次閱讀
    多<b class='flag-5'>智能</b>體仿真中的統(tǒng)一混合<b class='flag-5'>模型</b>框架研究

    新品 | Module LLM Kit,離線大語言模型推理模塊套裝

    推理與數(shù)據(jù)交互需求。ModuleLLM是一款集成化的離線大語言模型(LLM)推理模塊,專為需要高效、智能交互的終端設(shè)備設(shè)計。Module13.2LLMMate模塊
    的頭像 發(fā)表于 03-28 18:49 ?1225次閱讀
    新品 | Module LLM Kit,離線大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>推理模塊套裝

    自動駕駛模型中常提的Token是個啥?對自動駕駛有何影響?

    近年來,人工智能技術(shù)迅速發(fā)展,大規(guī)模深度學(xué)習(xí)模型(即大模型)在自然語言處理、計算機視覺、語音識別以及自動駕駛等多個領(lǐng)域取得了突破性進(jìn)展。自動
    的頭像 發(fā)表于 03-28 09:16 ?1359次閱讀

    ?VLM(視覺語言模型)?詳細(xì)解析

    視覺語言模型(Visual Language Model, VLM)是一種結(jié)合視覺(圖像/視頻)和語言(文本)處理能力的多模態(tài)人工智能模型,
    的頭像 發(fā)表于 03-17 15:32 ?8913次閱讀
    ?VLM(視覺<b class='flag-5'>語言</b><b class='flag-5'>模型</b>)?詳細(xì)解析