91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于動(dòng)態(tài)編譯(Just-in-Time)的全新深度學(xué)習(xí)框架

電子設(shè)計(jì) ? 來(lái)源:風(fēng)君子 ? 作者:風(fēng)君子 ? 2020-11-25 11:08 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

據(jù)官方消息,清華大學(xué)計(jì)算機(jī)系圖形實(shí)驗(yàn)室宣布開(kāi)源一個(gè)全新的深度學(xué)習(xí)框架:Jittor,中文名計(jì)圖。

Jittor 是一個(gè)采用元算子表達(dá)神經(jīng)網(wǎng)絡(luò)計(jì)算單元、完全基于動(dòng)態(tài)編譯(Just-in-Time)的深度學(xué)習(xí)框架。[1]

據(jù)介紹,Jittor 內(nèi)部使用創(chuàng)新的元算子和統(tǒng)一計(jì)算圖的深度學(xué)習(xí)框架。和 Numpy 相比,元算子在保證易用性的同時(shí),能夠?qū)崿F(xiàn)更復(fù)雜、更高效的操作。而統(tǒng)一計(jì)算圖則是融合了靜態(tài)計(jì)算圖和動(dòng)態(tài)計(jì)算圖的諸多優(yōu)點(diǎn),在易于使用的同時(shí),提供高性能的優(yōu)化。基于元算子開(kāi)發(fā)的深度學(xué)習(xí)模型,可以被計(jì)圖實(shí)時(shí)自動(dòng)優(yōu)化并且運(yùn)行 CPU、GPU 等指定的硬件上。

Jittor 特性

Jittor 是基于易用、可定制、實(shí)現(xiàn)與優(yōu)化分離、即時(shí)的理念設(shè)計(jì)的。用戶只需要數(shù)行代碼,就可定義新的算子和模型,且所有的代碼都是即時(shí)編譯運(yùn)行。

在 Jittor 上,多個(gè)元算子之間可以相互融合,成為更加復(fù)雜的算子,進(jìn)一步構(gòu)成神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)應(yīng)用。

支持計(jì)算任意高階導(dǎo)數(shù)。元算子在 Jittor 上反向傳播后仍然是元算子,因此,在深度學(xué)習(xí)開(kāi)發(fā)過(guò)程中,你不用算子的反向傳播而重復(fù)開(kāi)發(fā)。同時(shí),還可以使用統(tǒng)一的優(yōu)化策略。

使用 Jittor 內(nèi)置的元算子編譯器,用戶可以直接將通過(guò)元算子編寫(xiě)的 Python 代碼動(dòng)態(tài)編譯成更高效的 C++ 代碼。

Jittor 能夠自動(dòng)優(yōu)化動(dòng)態(tài)編譯的代碼。其內(nèi)置的優(yōu)化編譯遍(complier pass)兼容 LLVM,可以根據(jù)設(shè)備進(jìn)行自動(dòng)優(yōu)化,生成的底層算子對(duì)計(jì)算設(shè)備非常友好。

Jittor 統(tǒng)一管理 GPU 和 CPU 的內(nèi)存。當(dāng)深度學(xué)習(xí)耗盡 GPU 內(nèi)存資源時(shí),將用 CPU 內(nèi)存彌補(bǔ)。

Jittor 同時(shí)提供同步接口和異步接口,用戶可以同時(shí)享受同步接口的易用性和異步接口的高效性。

使用輔助轉(zhuǎn)換腳本,PyTorch 代碼可以直接轉(zhuǎn)換成 Jittor 模型。在參數(shù)保存和數(shù)據(jù)傳輸上,Jittor使用和 PyTorch 一樣的 Numpy+pickle 協(xié)議,二者的模型可以相互加載和調(diào)用。

性能超越 Pytorch

雖然這是清華大學(xué)第一次發(fā)布開(kāi)源機(jī)器學(xué)習(xí)框架,但與國(guó)際主流平臺(tái)相比,Jittor 豪不遜色。 目前 ResNet、VGG、SSD、DeepLab、LSGAN 等多個(gè)網(wǎng)絡(luò)模型已經(jīng)在 Jittor 平臺(tái)實(shí)現(xiàn),可供用戶使用。與同類(lèi)型框架相比,Jittor 在收斂精度一致情況下,推理速度取得了 10%-50% 的性能提升 。

目前,Jittor 得到了國(guó)家自然科學(xué)基金項(xiàng)目、北京信息科學(xué)與技術(shù)國(guó)家研究中心團(tuán)隊(duì)項(xiàng)目和清華-騰訊聯(lián)合實(shí)驗(yàn)室項(xiàng)目的資助和支持。

開(kāi)源超級(jí)玩家

開(kāi)源,特別是人工智能領(lǐng)域的開(kāi)源,逐漸成為綜合實(shí)力的象征。清華在這方面有著獨(dú)到的優(yōu)勢(shì)。

首先,是在人工智能領(lǐng)域的學(xué)術(shù)傳承。2019 年,清華人工智能研究院動(dòng)作頻頻,在張鈸院士的帶領(lǐng)下,4 月成立聽(tīng)覺(jué)智能研究中心,由鄭方教授擔(dān)任主任,5 月成立基礎(chǔ)理論研究中心,朱軍任主任,在基礎(chǔ)算法、AI 框架、AI 應(yīng)用、數(shù)據(jù)資源等方面早已布好基礎(chǔ)。

第一代院士打好基礎(chǔ),第二代老師形成了中堅(jiān)力量。此次驚艷推出的計(jì)圖(Jittor),牽頭人就是清華大學(xué)計(jì)算機(jī)系的胡事民教授,1969 年生人,正屬于中堅(jiān),而開(kāi)發(fā)團(tuán)隊(duì)的主體,正是他帶領(lǐng)的圖形學(xué)實(shí)驗(yàn)室的一批博士生。今天出世的計(jì)圖更不免讓人想到當(dāng)年的清華畢業(yè)生賈揚(yáng)清,他在加州大學(xué)伯克利分校攻讀博士期間創(chuàng)建了 Caffe 項(xiàng)目。

清華大學(xué)自然語(yǔ)言處理實(shí)驗(yàn)室(THUNLP)也有一個(gè)知名的開(kāi)源項(xiàng)目,叫 OpenNRE。[2] 這是一個(gè)在自然語(yǔ)言處理里進(jìn)行關(guān)系提取的開(kāi)源框架,可以用于擴(kuò)展知識(shí)圖譜,是推薦系統(tǒng)、搜索引擎、問(wèn)題解答這些應(yīng)用的基礎(chǔ)和關(guān)鍵技術(shù)。

實(shí)驗(yàn)室由孫茂松教授領(lǐng)銜,帶出了一批骨干老師,以及本碩博的尖子。THUNLP 在 GitHub 上得到的 star,已經(jīng)跟全球最強(qiáng)的斯坦福 NLP 小組的 star 差不多了。

由此帶出的第三代學(xué)生梯隊(duì)也人才濟(jì)濟(jì)。清華姚班自不必說(shuō),去年以本科人才培養(yǎng)著名的姚期智教授又開(kāi)設(shè)智班,重點(diǎn)培養(yǎng)人工智能領(lǐng)域的后備軍。

姚班畢業(yè),目前在 MIT 就讀的博士生胡淵鳴,設(shè)計(jì)、實(shí)現(xiàn)了 Taichi 編程語(yǔ)言及其優(yōu)化編譯器,后生可畏。[3]

另外,清華和企業(yè)以實(shí)驗(yàn)室形式的合作,碩果累累,吸引了像張亞勤、沈向洋這樣的大師級(jí)科學(xué)家加入。

比如,清華和微軟研究院合作了 Convlab 開(kāi)源端到端對(duì)話系統(tǒng) [4],和美團(tuán)合作了視頻動(dòng)作分析的開(kāi)源數(shù)據(jù)集 COIN [5]。

去年,清華-伯克利深圳學(xué)院更是成立了“RISC-V 國(guó)際開(kāi)源實(shí)驗(yàn)室”,直接將圖靈獎(jiǎng)得主、最早提出“精簡(jiǎn)指令集”(RISC)體系的大衛(wèi)·帕特森(David Patterson)引入,抓住了開(kāi)源和源創(chuàng)的源頭,有可能在芯片領(lǐng)域形成新的開(kāi)源 CPU 生態(tài)體系,打造國(guó)家重器。

編輯:hfy
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4838

    瀏覽量

    107859
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5198

    瀏覽量

    135522
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50108

    瀏覽量

    265561
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124418
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    恩智浦推出全新eIQ Agentic AI框架

    恩智浦半導(dǎo)體宣布推出全新eIQ Agentic AI框架,進(jìn)一步鞏固其在安全實(shí)時(shí)邊緣AI領(lǐng)域的領(lǐng)導(dǎo)地位。該工具支持在邊緣設(shè)備上直接實(shí)現(xiàn)自主智能體功能,助力資深與新手設(shè)備開(kāi)發(fā)人員簡(jiǎn)化并加速智能體AI
    的頭像 發(fā)表于 01-13 11:15 ?1337次閱讀

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    無(wú)論你是剛?cè)腴T(mén)還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見(jiàn)錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?211次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    (包含資深工程師) 1)技術(shù)盲區(qū)突破 傳統(tǒng)視覺(jué)進(jìn)階:九點(diǎn)標(biāo)定誤差補(bǔ)償、手眼協(xié)調(diào)動(dòng)態(tài)精度優(yōu)化等高級(jí)技巧,提升系統(tǒng)穩(wěn)定性 深度學(xué)習(xí)落地:模型輕量化部署(YOLOv8篇)、LabVIEW與GPU協(xié)同訓(xùn)練,解決算
    發(fā)表于 12-04 09:28

    【團(tuán)購(gòu)】獨(dú)家全套珍藏!龍哥LabVIEW視覺(jué)深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    (包含資深工程師) 1)技術(shù)盲區(qū)突破 傳統(tǒng)視覺(jué)進(jìn)階:九點(diǎn)標(biāo)定誤差補(bǔ)償、手眼協(xié)調(diào)動(dòng)態(tài)精度優(yōu)化等高級(jí)技巧,提升系統(tǒng)穩(wěn)定性 深度學(xué)習(xí)落地:模型輕量化部署(YOLOv8篇)、LabVIEW與GPU協(xié)同訓(xùn)練,解決算
    發(fā)表于 12-03 13:50

    新思科技攜手微軟、英偉達(dá)發(fā)布可實(shí)時(shí)優(yōu)化動(dòng)態(tài)制造流程框架

    新思科技(納斯達(dá)克代碼:SNPS)近日攜手技術(shù)合作伙伴在微軟 Ignite 大會(huì)上發(fā)布了一套仿真技術(shù)驅(qū)動(dòng)的可實(shí)時(shí)優(yōu)化動(dòng)態(tài)制造流程框架。該框架已經(jīng)被全球領(lǐng)先的灌裝包裝系統(tǒng)集成商 Krones 率先采用,構(gòu)建了物理精確的虛擬裝配線,
    的頭像 發(fā)表于 11-30 09:53 ?537次閱讀

    如何深度學(xué)習(xí)機(jī)器視覺(jué)的應(yīng)用場(chǎng)景

    深度學(xué)習(xí)視覺(jué)應(yīng)用場(chǎng)景大全 工業(yè)制造領(lǐng)域 復(fù)雜缺陷檢測(cè):處理傳統(tǒng)算法難以描述的非標(biāo)準(zhǔn)化缺陷模式 非標(biāo)產(chǎn)品分類(lèi):對(duì)形狀、顏色、紋理多變的產(chǎn)品進(jìn)行智能分類(lèi) 外觀質(zhì)量評(píng)估:基于學(xué)習(xí)的外觀質(zhì)量標(biāo)準(zhǔn)判定 精密
    的頭像 發(fā)表于 11-27 10:19 ?230次閱讀

    如何在機(jī)器視覺(jué)中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測(cè)可定位已訓(xùn)練的目標(biāo)類(lèi)別,并通過(guò)矩形框(邊界框)對(duì)其進(jìn)行標(biāo)識(shí)。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會(huì)出現(xiàn)“神經(jīng)網(wǎng)絡(luò)”、“黑箱”、“標(biāo)注”等術(shù)語(yǔ)。這些概
    的頭像 發(fā)表于 09-10 17:38 ?911次閱讀
    如何在機(jī)器視覺(jué)中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    摩爾線程發(fā)布Torch-MUSA v2.1.1版本

    近日,摩爾線程發(fā)布其面向PyTorch深度學(xué)習(xí)框架的MUSA擴(kuò)展庫(kù)——Torch-MUSA v2.1.1。該版本在v2.1.0的基礎(chǔ)上,進(jìn)一步擴(kuò)展了對(duì)大規(guī)模深度
    的頭像 發(fā)表于 09-10 11:02 ?1045次閱讀

    深度學(xué)習(xí)對(duì)工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過(guò)模擬人腦神經(jīng)網(wǎng)絡(luò)的層級(jí)結(jié)構(gòu),能夠自動(dòng)從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級(jí)能力。以下從技術(shù)賦能、場(chǎng)景突破
    的頭像 發(fā)表于 08-20 14:56 ?1038次閱讀

    一種適用于動(dòng)態(tài)環(huán)境的自適應(yīng)先驗(yàn)場(chǎng)景-對(duì)象SLAM框架

    由于傳統(tǒng)視覺(jué)SLAM在動(dòng)態(tài)場(chǎng)景中容易會(huì)出現(xiàn)嚴(yán)重的定位漂移,本文提出了一種新穎的基于場(chǎng)景-對(duì)象的可靠性評(píng)估框架,該框架通過(guò)當(dāng)前幀質(zhì)量指標(biāo)以及相對(duì)于可靠參考幀的場(chǎng)景變化,全面評(píng)估SLAM的穩(wěn)定性。
    的頭像 發(fā)表于 08-19 14:17 ?886次閱讀
    一種適用于<b class='flag-5'>動(dòng)態(tài)</b>環(huán)境的自適應(yīng)先驗(yàn)場(chǎng)景-對(duì)象SLAM<b class='flag-5'>框架</b>

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來(lái),隨著ChatGPT、Claude、文心一言等大語(yǔ)言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4204次閱讀
    自動(dòng)駕駛中Transformer大模型會(huì)取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    思嵐科技AI工業(yè)機(jī)器人開(kāi)放底盤(pán)Phoebus P350全新發(fā)布:深度學(xué)習(xí)導(dǎo)航+300KG負(fù)載

    工業(yè)4.0時(shí)代,智能搬運(yùn)的“底盤(pán)力”決定效率天花板。 SLAMTEC全新推出 Phoebus P350工業(yè)級(jí)機(jī)器人底盤(pán) ,以 “開(kāi)放AI架構(gòu)+深度學(xué)習(xí)導(dǎo)航” 為核心,融合300KG超強(qiáng)負(fù)載、60cm
    的頭像 發(fā)表于 05-12 11:33 ?1481次閱讀
    思嵐科技AI工業(yè)機(jī)器人開(kāi)放底盤(pán)Phoebus P350<b class='flag-5'>全新</b>發(fā)布:<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>導(dǎo)航+300KG負(fù)載

    上海光機(jī)所在基于深度時(shí)空先驗(yàn)的動(dòng)態(tài)定量相位成像研究方面取得進(jìn)展

    圖1 (a) 非干涉動(dòng)態(tài)定量相位成像示意圖。(b) 僅利用空間先驗(yàn)的模型驅(qū)動(dòng)深度學(xué)習(xí)。(c) 引入時(shí)空先驗(yàn)的模型驅(qū)動(dòng)學(xué)習(xí)。(d) 分別使用 STeP 和空間先驗(yàn)從視頻序列重建相位的仿真
    的頭像 發(fā)表于 04-27 06:23 ?664次閱讀
    上海光機(jī)所在基于<b class='flag-5'>深度</b>時(shí)空先驗(yàn)的<b class='flag-5'>動(dòng)態(tài)</b>定量相位成像研究方面取得進(jìn)展

    百度飛槳框架3.0正式版發(fā)布

    大模型訓(xùn)練成本高?推理效率低?硬件適配難? 4月1日,百度發(fā)布 飛槳框架3.0正式版 !五大特性專為大模型設(shè)計(jì)。 作為大模型時(shí)代的Infra“基礎(chǔ)設(shè)施”,深度學(xué)習(xí)框架的重要性愈發(fā)凸顯,
    的頭像 發(fā)表于 04-02 19:03 ?1202次閱讀
    百度飛槳<b class='flag-5'>框架</b>3.0正式版發(fā)布

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過(guò)程中使用合適的特征變換對(duì)深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個(gè)層都將對(duì)輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)框架,可以深度理解數(shù)
    的頭像 發(fā)表于 04-02 18:21 ?1525次閱讀