【博主簡介】本人“愛在七夕時”,系一名半導體行業(yè)質量管理從業(yè)者,旨在業(yè)余時間不定期的分享半導體行業(yè)中的:產品質量、失效分析、可靠性分析和產品基礎應用等相關知識。常言:真知不問出處,所分享的內容如有雷同或是不當之處,還請大家海涵。當前在各網絡平臺上均以此昵稱為ID跟大家一起交流學習!

談到AI,相信現(xiàn)在很多人都不陌生了,因為AI已經滲透到我們生活的方方面面。從語音助手、圖像識別到智能推薦系統(tǒng),AI技術正越來越多地應用于我們的日常生活。我們能夠通過語音指令控制智能家居,讓機器人幫助我們打掃房間,還能通過人臉識別解鎖手機。AI與物聯(lián)網、大數(shù)據等技術的結合,正在為我們創(chuàng)造出更加智能化和便捷的世界。
同時,AI的興起也被視為第四次工業(yè)革命的重要驅動力之一。它不僅改變著我們的生活方式,還影響著產業(yè)結構和社會發(fā)展。在醫(yī)療領域,AI輔助診斷和精準治療正在幫助醫(yī)生提高效率和準確性。在交通領域,自動駕駛技術正逐漸成為現(xiàn)實,為我們的出行帶來了更高的安全性和便利性。而在教育、金融、農業(yè)等各個領域,AI也展示出巨大的潛力和創(chuàng)新空間。
那具體來講,什么是AI?AI能如此強大又靠的是什么呢?這就是今天我要跟大家分享的內容:
一、AI的定義
AI,英文全稱為:Artificial Intelligence,簡稱:AI,中文全稱為:人工智能。它是計算機科學的一個分支,旨在使計算機模擬和仿效人類智能。通過模擬人類的思維、學習和判斷能力,AI可以自主地處理和解決各種復雜問題,為人類帶來了前所未有的便造力。
眾所周知,AI的三大基礎要素是數(shù)據、算法和算力,而這三大要素的核心就是AI芯片技術。隨著各項基于AIGC前沿科技的廣泛應用,AI對于算力的要求開始不斷地快速攀升。特別是深度學習成為當前AI研究和運用的主流方式,目前通用的CPU可以拿來執(zhí)行AI的算法。但是因為內部有大量的非運算邏輯,而這些指令級對于目前的AI算法來說是完全用不上的,所以CPU并不能達到最高的運算效率。因此,具有海量并行計算能力并且能夠加速AI計算的AI芯片應運而生。
二、什么是AI芯片
從廣義上講,能運行AI算法的芯片都叫AI芯片。目前通用的CPU、GPU、FPGA等都能執(zhí)行AI算法,只是執(zhí)行效率差異較大。
但狹義上講一般將AI芯片定義為“專門針對AI算法做了特殊加速設計的芯片”。
目前AI芯片的主要用于語音識別、自然語言處理、圖像處理等大量使用AI算法的領域,通過芯片加速提高算法效率。AI芯片的主要任務是矩陣或向量的乘法、加法,然后配合一些除法、指數(shù)等算法。AI算法在圖像識別等領域,常用的是CNN卷積網絡,一個成熟的AI算法,就是大量的卷積、殘差網絡、全連接等類型的計算,本質是乘法和加法。
對汽車行業(yè)而言,AI芯片的主要用于就是處理智能駕駛中環(huán)境感知、傳感器融合和路徑規(guī)劃等法帶來的大量并行計算需求。
AI芯片可以理解為一個快速計算乘法和加法的計算器,而CPU要處理和運行非常復雜的指令集,難度比AI芯片大很多。GPU雖然為圖形處理而設計但是CPU與GPU并不是專用AI芯片,其內部有大量其他邏輯來實現(xiàn)其他功能,這些邏輯對于目前的AI算法來說完全無用。
目前經過專門針對AI法做過開發(fā)的GPU應用較多,也有部分企業(yè)用FPGA做開發(fā),但是行業(yè)內對于AI算法必然出現(xiàn)專用AI芯片。
三、為什么要用AI芯片
人工智能從功能上來看包括推理和訓練兩個環(huán)節(jié),智能駕駛行業(yè)亦然。在訓練環(huán)節(jié),通過大數(shù)據訓練出一個復雜的神經網絡模型,目前大部分企業(yè)在訓練環(huán)節(jié)主要使用英偉達的GPU集群完成。推理環(huán)節(jié)是指利用訓練好的模型,使用大量數(shù)據推理出各種結論。因此,訓練環(huán)節(jié)對芯片的算力性能要求比較高推理環(huán)節(jié)對簡單指定的重復計算和低延遲的要求很高。
從應用場景來看,人工智能芯片應用于云端和設備端,在智能駕駛領域同樣具備云服務器和車載的各種計算平臺或域控制器,在智能駕駛深度學習的訓練階段需要極大的數(shù)據量和大量運算,單一處理器無法獨立完成,因此訓練環(huán)節(jié)只能在云服務器實現(xiàn)。相對的在設備端即車上,各種ECU、DCU等終端數(shù)量龐大,而且需求差異較大。因此,推理環(huán)節(jié)無法在云端完成,這就要求車上的各種電子單元、硬件計算平臺或域控制器有獨立的推理計算能力,因此必須要有專用的AI芯片來應對這些推理計算需求。
傳統(tǒng)的CPU、GPU都可以拿來執(zhí)行AI算法,但是速度慢,性能低,尤其是CPU,在智能駕駛領域無法實際投入商用。
比如,自動駕駛需要識別道路、行人、紅綠燈等路況和交通狀況,這在自動駕駛算法里面都是屬于并行計算,如果是CPU去執(zhí)行計算,那么估計車撞到人了也沒算出來個結果,CPU并行計算速度慢屬于先天不足。如果用GPU速度要快得多,畢竟GPU專為圖像處理并行計算設計,但是GPU功耗過大,汽車的電池無法長時間支撐正常使用,而且GPU價格相對較高,用于自動駕駛量產的話普通消費者也用不起。另外,GPU因為不是專門針對AI算法開發(fā)的ASIC,執(zhí)行AI計算的速度優(yōu)勢還沒到極限,還有提升空間。
在智能駕駛這樣的領域,環(huán)境感知、物體識別等深度學習應用要求計算響應方面必須快!時間就是生命,慢一步就有可能造成無法挽回的情況,但是保證性能快效率高的同時,功耗不能過高,不能對智能汽車的續(xù)航里程造成較大影響,也就是AI芯片必須功耗低,所以GPU不是適合智能駕駛的最佳AI芯片選擇。因此開發(fā)ASIC就成了必然。
四、AI芯片的發(fā)展歷程
從圖靈的論文《計算機器與智能》和圖靈測試,到最初的神經元模擬單元感知機,再到現(xiàn)在多達上百層的深度神經網絡,人類對人工智能的探索從來都沒有停止過。上世紀80年代,多層神經網絡和反向傳播算法的出現(xiàn)給人工智能行業(yè)點燃了新的火花。
1989年,貝爾實驗室成功利用了反向傳播算法在多層神經網絡開發(fā)了一個手寫郵編識別器。
1998年,兩位人工智能科學家楊立坤和約書亞·本杰奧發(fā)表了手寫識別神經網絡和反向傳播優(yōu)化相關的論文,開創(chuàng)了卷積神經網絡的時代。此后,人工智能陷入了長時間的發(fā)展沉寂階段,直到1997年IBM的深藍戰(zhàn)勝了國際象棋大師,和2011年IBM的沃森智能系統(tǒng)在《危險邊緣》節(jié)目中勝出,人工智能才又一次被人們所關注。
2016年,阿爾法狗擊敗了韓國圍棋九段的職業(yè)選手,就標志著人工智能的又一波高潮。從基礎算法、底層硬件和工具框架到實際的應用場景,現(xiàn)階段的人工智能領域已經全面開花。作為人工智能核心的底層硬件,AI芯片同樣也經歷了多次的起伏和波折。總體來看,AI芯片的發(fā)展前后經歷了四次大的變化。
2007年以前,AI芯片產業(yè)一直沒有發(fā)展成為成熟的產業(yè),同時由于當時的算法、數(shù)據量等因素,這個階段的AI芯片并沒有特別強烈的市場需求,通用的CPU芯片即可滿足應用需求。隨著高清視頻、VR、AR、游戲等行業(yè)的發(fā)展,GPU產品得到了快速的突破,同時人們發(fā)現(xiàn)GPU的并行計算特性恰好適應人工智能算法及大數(shù)據并行計算的需求。如GPU比之前傳統(tǒng)的CPU在深度學習算法的運算上可以提升幾十倍的效率,因此開始嘗試使用GPU進行人工智能計算。
進入2010年后,云計算開始廣泛推廣,人工智能的研究人員通過云計算借助大量的CPU和GPU進行混合運算,進一步推進了AI芯片的深入應用,從而催生了各類AI芯片的研發(fā)和應用。人工智能對于計算能力的要求在不斷地提升。
進入2015年后,GPU性能功耗比不高的特點使其在工作適用場合受到多種限制,業(yè)界開始研發(fā)針對人工智能的專用芯片,以其通過更好的硬件和芯片架構在計算效率、能耗比等性能上得到進一步的提升。
五、AI芯片的基礎知識
關于“AI(人工智能)芯片”基礎知識的詳解;mp.weixin.qq.com/s/qn2Cpx7LkRwAWz00oIKZYg?token=1423444785&lang=zh_CN
六、總結一下
眾所周知,通用處理器(CPU)的摩爾定律已入暮年,而機器學習和Web 服務的規(guī)模卻在指數(shù)級增長。
人們使用定制硬件來加速常見的計算任務,然而日新月異的行業(yè)又要求這些定制的硬件可被重新編程來執(zhí)行新類型的計算任務。
將以上四種架構對比,GPU未來的主攻方向是高級復雜算法和通用性人工智能平臺,其發(fā)展路線分兩條走:一是主攻高端算法的實現(xiàn),對于指令的邏輯性控制要更復雜一些,在面向需求通用的AI計算方面具有優(yōu)勢;二是主攻通用性人工智能平臺,GPU的通用性強,所以應用于大型人工智能平臺可高效完成不同的需求。FPGA更適用于各種細分的行業(yè),人工智能會應用到各個細分領域。
ASIC芯片是全定制芯片,長遠看適用于人工智能?,F(xiàn)在很多做AI算法的企業(yè)也是從這個點切入。因為算法復雜度越強,越需要一套專用的芯片架構與其進行對應,ASIC基于人工智能算法進行定制,其發(fā)展前景看好。類腦芯片是人工智能最終的發(fā)展模式但是離產業(yè)化還很遙遠。
幾個品牌的SOC及域控制器做的還是不錯的尤其是基于NVIDIA Xavier以及前期PX2等芯片的開發(fā)。國內大部分企業(yè)的應用比較集中在Xavier平臺和Linux系統(tǒng),尤其是新勢力造車企業(yè),而傳統(tǒng)車企更青睞T1、瑞薩等半導體公司的智能AI芯片以及QNX系統(tǒng)。國內基于Xavier做開發(fā)的企業(yè)很多,天津優(yōu)控智行目前的域控制器產品在行業(yè)內屬于中等偏上水平,但是其軟件工具和服務做得相對有些優(yōu)勢,后期有時間也扒一扒地平線、智行者等企業(yè)的域控制器學習學習。
寫在最后的話
AI芯片的發(fā)展向著更低功耗、更接近人腦、更靠近邊緣的方向發(fā)展?,F(xiàn)在用于深度學習的AI芯片,為了實現(xiàn)深度學習的龐大乘積累加運算和實現(xiàn)計算的高性能,芯片面積越做越大,帶來了成本和散熱等問題。AI芯片編程的成熟度和芯片的安全以及神經網絡的穩(wěn)定性等問題也都未能得到很好的解決。因此在現(xiàn)有的基礎上進行改進和完善此類芯片,仍然是當前的主要研究方向。最終,AI芯片將進一步提高智能,向著更接近人腦的高度智能方向不斷發(fā)展,并且向著邊緣逐步移動,以獲得更低的能耗。AI芯片的發(fā)展,計算范式隨著創(chuàng)新方向以及硬件實現(xiàn),AI硬件加速技術已經逐漸走向成熟。未來可能會有更多的創(chuàng)業(yè)會來自電路和器件級技術的結合,比如存內計算、類腦計算,或者是針對特殊的計算模式或者是新模型,還會有稀疏化計算和近似計算。關于深度計算的研究,也將持續(xù)進行。

免責聲明
【我們尊重原創(chuàng),也注重分享。文中的文字、圖片版權歸原作者所有,轉載目的在于分享更多信息,不代表本號立場,如有侵犯您的權益請及時私信聯(lián)系,我們將第一時間跟蹤核實并作處理,謝謝!】
審核編輯 黃宇
-
芯片
+關注
關注
463文章
54018瀏覽量
466335 -
AI
+關注
關注
91文章
39844瀏覽量
301505 -
人工智能
+關注
關注
1817文章
50103瀏覽量
265527
發(fā)布評論請先 登錄
《AI芯片:科技探索與AGI愿景》—— 深入硬件核心的AGI指南
【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片的需求和挑戰(zhàn)
利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能
AI 芯片浪潮下,職場晉升新契機?
挖到寶了!人工智能綜合實驗箱,高校新工科的寶藏神器
挖到寶了!比鄰星人工智能綜合實驗箱,高校新工科的寶藏神器!
超小型Neuton機器學習模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應用.
迅為RK3588開發(fā)板Linux安卓麒麟瑞芯微國產工業(yè)AI人工智能
AI芯片:加速人工智能計算的專用硬件引擎
最新人工智能硬件培訓AI基礎入門學習課程參考2025版(離線AI語音視覺識別篇)
最新人工智能硬件培訓AI 基礎入門學習課程參考2025版(大模型篇)
Nordic收購 Neuton.AI 關于產品技術的分析
開售RK3576 高性能人工智能主板
AI人工智能隱私保護怎么樣
關于“AI(人工智能)芯片”基礎知識的詳解;
評論