91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)框架只為GPU? 答案在這里

模擬對(duì)話(huà) ? 2018-03-14 18:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

目前大多數(shù)的機(jī)器學(xué)習(xí)是在處理器上完成的,大多數(shù)機(jī)器學(xué)習(xí)軟件會(huì)針對(duì)GPU進(jìn)行更多的優(yōu)化,甚至有人認(rèn)為學(xué)習(xí)加速必須在GPU上才能完成,但事實(shí)上無(wú)論是運(yùn)行機(jī)器學(xué)習(xí)的處理器還是優(yōu)化的深度學(xué)習(xí)框架,都不單只針對(duì)GPU,代號(hào)為“Skylake”的英特爾至強(qiáng)SP處理器就證明了這一點(diǎn)。

機(jī)器學(xué)習(xí)軟件在英特爾至強(qiáng)SP系列白金版上的一系列基準(zhǔn)測(cè)試性能表現(xiàn)與在GPU上非常相近,了解了底層架構(gòu)之后,我們可以看到,在性能如此接近的情況下,使用GPU加速器更像是在購(gòu)買(mǎi)一種“奢侈品”,用戶(hù)在GPU以外還有很多其他的選擇。毫無(wú)疑問(wèn),在用戶(hù)只需要機(jī)器學(xué)習(xí)的情況下,“加速器”在性能和能耗方面更有優(yōu)勢(shì),大多數(shù)人需要的不只是一臺(tái)“智能的用于機(jī)器學(xué)習(xí)的服務(wù)器”,那就讓我們來(lái)重點(diǎn)看一下英特爾至強(qiáng)SP 白金級(jí)處理器為什么是最佳的選擇:

CPU優(yōu)化深度學(xué)習(xí)框架和函數(shù)庫(kù)

英特爾在基于GPU優(yōu)化的框架中增加了CPU優(yōu)化深度學(xué)習(xí)框架, 打破了深度學(xué)習(xí)框架偏重于GPU而忽視了CPU的行業(yè)現(xiàn)狀,解決了目前這些框架缺乏CPU優(yōu)化的實(shí)際問(wèn)題。

- TensorFlow由谷歌開(kāi)發(fā),是一個(gè)領(lǐng)先的深度學(xué)習(xí)和機(jī)器學(xué)習(xí)框架,有面向Linux的處理器優(yōu)化

- Caffe是圖片識(shí)別領(lǐng)域最受歡迎的應(yīng)用之一,英特爾提供的優(yōu)化可以在CPU運(yùn)行時(shí)提高Caffe的性能

- Torch是當(dāng)下流行的深度學(xué)習(xí)框架,需要在優(yōu)化的CPU上應(yīng)用,可以通過(guò)英特爾軟件優(yōu)化(比如英特爾至強(qiáng)可擴(kuò)展處理器)提高Torch在CPU上的性能

- Theano是一個(gè)開(kāi)源的Python庫(kù),很受機(jī)器學(xué)習(xí)程序員的歡迎,它可以幫助程序員高效地定義、優(yōu)化和評(píng)估涉及多維陣列的數(shù)學(xué)表達(dá)式

- Neon是一個(gè)基于Python的深度學(xué)習(xí)框架,目的是在現(xiàn)代深度神經(jīng)網(wǎng)絡(luò)上實(shí)現(xiàn)易用性和可擴(kuò)展性,并致力于在所有硬件上實(shí)現(xiàn)性能的最大化

- MXNet是一個(gè)開(kāi)源的深度學(xué)習(xí)框架

- Python及其函數(shù)庫(kù)是機(jī)器學(xué)習(xí)應(yīng)用里最受歡迎的基礎(chǔ)組成,Python加速版過(guò)去幾年里得到了廣泛應(yīng)用,并且可以直接下載或通過(guò)Conda、yum、apt-get或Docker images下載

- BigDL是一個(gè)面向Apache Spark的分布式深度學(xué)習(xí)函數(shù)庫(kù)。通過(guò)BigDL用戶(hù)可以把自己的深度學(xué)習(xí)應(yīng)用當(dāng)作標(biāo)準(zhǔn)Apache Spark程序來(lái)編寫(xiě),直接在現(xiàn)有Apache Spark或Hadoop集群上運(yùn)行。在Torch基礎(chǔ)上開(kāi)發(fā)的BigDL可以為深度學(xué)習(xí)提供綜合性支持:包括數(shù)值計(jì)算(通過(guò)Tensor)和高級(jí)神經(jīng)網(wǎng)絡(luò);此外用戶(hù)還可以利用BigDL把提前訓(xùn)練的Caffe或Torch模型載入Spark程序。英特爾曾聲稱(chēng)在一個(gè)單節(jié)點(diǎn)至強(qiáng)處理器上(例如與GPU相比),BigDL中的處理速度比原始開(kāi)源Caffe、Torch或TensorFlow要高一個(gè)數(shù)量級(jí)

- 英特爾MKL-DNN是一個(gè)開(kāi)源的、性能強(qiáng)化的函數(shù)庫(kù),用于加速在CPU上的深度學(xué)習(xí)框架

- 英特爾數(shù)據(jù)分析加速庫(kù)(DAAL)是一個(gè)包含了被優(yōu)化的算法構(gòu)建模塊的開(kāi)源函數(shù)庫(kù),針對(duì)大數(shù)據(jù)問(wèn)題最相關(guān)的數(shù)據(jù)分析階段。這個(gè)函數(shù)庫(kù)適用于當(dāng)下流行的數(shù)據(jù)平臺(tái),包括Hadoop、Spark、R和Matlab

結(jié)果證明了一切,無(wú)論是TensorFlow、Caffe,還是Torch、Theano,這些深度學(xué)習(xí)框架都針對(duì)英特爾數(shù)學(xué)核心函數(shù)庫(kù)(Intel MKL)和英特爾高級(jí)矢量擴(kuò)展指令集(Intel AVX)進(jìn)行了優(yōu)化。通過(guò)CPU優(yōu)化,TensorFlow和Caffe基準(zhǔn)測(cè)試中的CPU性能分別提高了72倍和82倍。

機(jī)器學(xué)習(xí)加速器

科技與行業(yè)的發(fā)展都是瞬息萬(wàn)變的,機(jī)器學(xué)習(xí)的加速器也會(huì)從GPU轉(zhuǎn)向FPGAASIC等等,除非我們永遠(yuǎn)只需要一臺(tái)只能用于機(jī)器學(xué)習(xí)的服務(wù)器,只要在一臺(tái)服務(wù)器上想實(shí)現(xiàn)可以支持各種的工作負(fù)載,英特爾至強(qiáng)可擴(kuò)展處理器無(wú)疑是最佳的解決方案。加速器的選擇正在變得多元化,這是整個(gè)行業(yè)的發(fā)展趨勢(shì),多核CPU(英特爾至強(qiáng)融核處理器,特別是“Knights Mill”版)和FPGA(英特爾至強(qiáng)處理器,包含Intel/Altera FPGA)都可以提供更靈活的選擇、卓越的性?xún)r(jià)比和高能效?;谟⑻貭栔翉?qiáng)融核處理器訓(xùn)練或?qū)W習(xí)一個(gè)AlexNet圖片分類(lèi)系統(tǒng)的速度,是使用NVIDIA GPU的類(lèi)似配置系統(tǒng)的2.3倍;英特爾至強(qiáng)融核處理器的性?xún)r(jià)比最高可以是GPU解決方案的9倍,每瓦性能高達(dá)8倍,英特爾Nervana將推出更多專(zhuān)為人工智能開(kāi)發(fā)的產(chǎn)品。英特爾至強(qiáng)SP系列處理器為機(jī)器學(xué)習(xí)提供了卓越的性能,同時(shí)相比其他解決方案也為我們帶來(lái)了更多的功能與選擇,讓我們?cè)诋a(chǎn)品與行業(yè)的發(fā)展中都可以擁有更多可能。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1660

    文章

    22421

    瀏覽量

    636628
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5199

    瀏覽量

    135523
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50108

    瀏覽量

    265565
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8554

    瀏覽量

    136996
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124419
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    原來(lái)流量開(kāi)關(guān)可以用在這里

    流量開(kāi)關(guān)
    華泰天科
    發(fā)布于 :2026年03月03日 09:17:08

    人工智能與機(jī)器學(xué)習(xí)在這些行業(yè)的深度應(yīng)用

    自人工智能和機(jī)器學(xué)習(xí)問(wèn)世以來(lái),多個(gè)在線(xiàn)領(lǐng)域的數(shù)字化格局迎來(lái)了翻天覆地的變化。這些技術(shù)從誕生之初就為企業(yè)賦予了競(jìng)爭(zhēng)優(yōu)勢(shì),而在線(xiàn)行業(yè)正是受其影響最為顯著的領(lǐng)域。人工智能(AI)與機(jī)器學(xué)習(xí)(ML)的深度應(yīng)用,徹底重塑了整個(gè)行業(yè)的發(fā)展模
    的頭像 發(fā)表于 02-04 14:44 ?507次閱讀

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    、GPU加速訓(xùn)練(可選) 雙軌教學(xué):傳統(tǒng)視覺(jué)算法+深度學(xué)習(xí)方案全覆蓋 輕量化部署:8.6M超輕OCR模型,適合嵌入式設(shè)備集成 無(wú)監(jiān)督學(xué)習(xí):無(wú)需缺陷樣本即可訓(xùn)練高精度檢測(cè)模型 持續(xù)更新:
    發(fā)表于 12-04 09:28

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    、GPU加速訓(xùn)練(可選) 雙軌教學(xué):傳統(tǒng)視覺(jué)算法+深度學(xué)習(xí)方案全覆蓋 輕量化部署:8.6M超輕OCR模型,適合嵌入式設(shè)備集成 無(wú)監(jiān)督學(xué)習(xí):無(wú)需缺陷樣本即可訓(xùn)練高精度檢測(cè)模型 持續(xù)更新:
    發(fā)表于 12-03 13:50

    國(guó)產(chǎn)傳感器產(chǎn)業(yè)發(fā)展破局點(diǎn)或在這里

    ? ? “十四五”期間中國(guó)傳感器產(chǎn)業(yè)發(fā)展中存在的最嚴(yán)峻問(wèn)題,“十五五”傳感器產(chǎn)業(yè)政策破局方向或在這里! ? ? 進(jìn)入10月份,踏入2025年的第四季度,2025年是我國(guó)經(jīng)濟(jì)發(fā)展中的“節(jié)點(diǎn)”年
    的頭像 發(fā)表于 10-29 18:13 ?1091次閱讀
    國(guó)產(chǎn)傳感器產(chǎn)業(yè)發(fā)展破局點(diǎn)或<b class='flag-5'>在這里</b>

    變壓器輸入和輸出電壓該怎么選?答案在這里

    變壓器作為一種電力設(shè)備,輸入和輸出電壓的選用對(duì)于確保設(shè)備正常運(yùn)行和安全至關(guān)重要。以下是選擇輸入和輸出電壓時(shí),需要考慮的因素:
    的頭像 發(fā)表于 07-04 14:49 ?1223次閱讀

    【高云GW5AT-LV60 開(kāi)發(fā)套件試用體驗(yàn)】基于開(kāi)發(fā)板進(jìn)行深度學(xué)習(xí)實(shí)踐,并盡量實(shí)現(xiàn)皮膚病理圖片的識(shí)別

    。 `clahe.py 但是上面的代碼和相關(guān)的邏輯暫時(shí)就停在這里了。 后來(lái)又過(guò)了幾天,嘗試一些有關(guān)cnn的實(shí)現(xiàn)。 記得在綜合的時(shí)候要將這個(gè)文件里面的模塊名替換一下: 上面雖然綜合通過(guò),但是還有一些警告。后面有時(shí)間的話(huà)
    發(fā)表于 06-11 22:35

    GPU架構(gòu)深度解析

    GPU架構(gòu)深度解析從圖形處理到通用計(jì)算的進(jìn)化之路圖形處理單元(GPU),作為現(xiàn)代計(jì)算機(jī)中不可或缺的一部分,已經(jīng)從最初的圖形渲染專(zhuān)用處理器,發(fā)展成為強(qiáng)大的并行計(jì)算引擎,廣泛應(yīng)用于人工智能、科學(xué)計(jì)算
    的頭像 發(fā)表于 05-30 10:36 ?1882次閱讀
    <b class='flag-5'>GPU</b>架構(gòu)<b class='flag-5'>深度</b>解析

    ARM Mali GPU 深度解讀

    ARM Mali GPU 深度解讀 ARM Mali 是 Arm 公司面向移動(dòng)設(shè)備、嵌入式系統(tǒng)和基礎(chǔ)設(shè)施市場(chǎng)設(shè)計(jì)的圖形處理器(GPU)IP 核,憑借其異構(gòu)計(jì)算架構(gòu)、能效優(yōu)化和生態(tài)協(xié)同,成為全球移動(dòng)
    的頭像 發(fā)表于 05-29 10:12 ?4360次閱讀

    ups不間斷電源—UPS(不間斷電源)故障咋解決?答案在這里

    一、故障現(xiàn)象:UPS(不間斷電源)頻繁自動(dòng)轉(zhuǎn)旁路 可能原因及解決方法: 1、逆變器故障:逆變器出現(xiàn)故障時(shí),UPS(不間斷電源)會(huì)自動(dòng)轉(zhuǎn)旁路供電。此時(shí)需檢查逆變器工作狀態(tài),如有問(wèn)題及時(shí)更換或維修。 2、過(guò)載保護(hù):負(fù)載超過(guò)UPS(不間斷電源)額定功率時(shí),為保護(hù)設(shè)備,UPS(不間斷電源)會(huì)自動(dòng)轉(zhuǎn)旁路。需檢查負(fù)載情況,調(diào)整負(fù)載或更換更大功率的UPS(不間斷電源)。 3、輸入電壓異常:市電電壓波動(dòng)過(guò)大或不穩(wěn)定,可能導(dǎo)致UPS(不間斷電源)頻繁自動(dòng)轉(zhuǎn)旁路。此時(shí)需檢查市電電壓穩(wěn)定性,采取穩(wěn)壓措施或安裝穩(wěn)壓器。
    的頭像 發(fā)表于 04-18 18:20 ?2528次閱讀
    ups不間斷電源—UPS(不間斷電源)故障咋解決?<b class='flag-5'>答案</b>全<b class='flag-5'>在這里</b>

    為何 MCX 插頭會(huì)呈現(xiàn)大小不同?答案在這里

    同時(shí),設(shè)備制造商在產(chǎn)品設(shè)計(jì)階段,會(huì)根據(jù)整體結(jié)構(gòu)和接口規(guī)劃,審慎選擇合適大小的 MCX 插頭。這一決策不僅關(guān)乎插頭與內(nèi)部組件的適配,還影響著設(shè)備的外部接口兼容性和可擴(kuò)展性,確保產(chǎn)品在復(fù)雜的電子生態(tài)系統(tǒng)中能夠無(wú)縫對(duì)接、協(xié)同工作。
    的頭像 發(fā)表于 04-11 08:40 ?605次閱讀
    為何 MCX 插頭會(huì)呈現(xiàn)大小不同?<b class='flag-5'>答案</b><b class='flag-5'>在這里</b>

    百度飛槳框架3.0正式版發(fā)布

    大模型訓(xùn)練成本高?推理效率低?硬件適配難? 4月1日,百度發(fā)布 飛槳框架3.0正式版 !五大特性專(zhuān)為大模型設(shè)計(jì)。 作為大模型時(shí)代的Infra“基礎(chǔ)設(shè)施”,深度學(xué)習(xí)框架的重要性愈發(fā)凸顯,
    的頭像 發(fā)表于 04-02 19:03 ?1202次閱讀
    百度飛槳<b class='flag-5'>框架</b>3.0正式版發(fā)布

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過(guò)程中使用合適的特征變換對(duì)深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個(gè)層都將對(duì)輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)框架,可以深度理解數(shù)
    的頭像 發(fā)表于 04-02 18:21 ?1525次閱讀

    騰訊會(huì)議免費(fèi)40分鐘不夠用?你要的秘訣在這里!

    影響效率。更令人擔(dān)憂(yōu)的是,未來(lái)免費(fèi)時(shí)長(zhǎng)可能進(jìn)一步縮短。那么,有沒(méi)有一種經(jīng)濟(jì)實(shí)惠又功能強(qiáng)大的解決方案呢?答案在這里:結(jié)合樹(shù)莓派和3CXPBX,你就能打造一個(gè)無(wú)時(shí)間限制
    的頭像 發(fā)表于 03-25 09:24 ?2176次閱讀
    騰訊會(huì)議免費(fèi)40分鐘不夠用?你要的秘訣<b class='flag-5'>在這里</b>!

    摩爾線(xiàn)程GPU原生FP8計(jì)算助力AI訓(xùn)練

    近日,摩爾線(xiàn)程正式開(kāi)源MT-MegatronLM與MT-TransformerEngine兩大AI框架。通過(guò)深度融合FP8混合訓(xùn)練策略和高性能算子庫(kù),這兩大框架在國(guó)產(chǎn)全功能GPU上實(shí)現(xiàn)
    的頭像 發(fā)表于 03-17 17:05 ?1531次閱讀
    摩爾線(xiàn)程<b class='flag-5'>GPU</b>原生FP8計(jì)算助力AI訓(xùn)練