91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

英特爾OpenVINO?將全力助力極視角AI推理加速

英特爾物聯(lián)網(wǎng) ? 來(lái)源:極市平臺(tái) ? 作者:鄧富城博士 極視角 ? 2021-09-22 16:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在模型開發(fā)和部署方面,極市平臺(tái)集成了最新版本的OpenVINO工具,助力開發(fā)者在最小化代碼修改的條件下加速AI算法在各類生產(chǎn)環(huán)境中規(guī)?;渴饝?yīng)用,尤其是在Intel豐富的硬件資源平臺(tái)上(CPUs、iGPUs、VPUs等等)。

本文重點(diǎn)介紹了極視角與英特爾開發(fā)人員共同研發(fā)的OpenVINO最新功能,無(wú)縫集成TensorFlow框架,對(duì)于熟悉TensorFlow開發(fā)的開發(fā)者來(lái)說(shuō),在原有代碼的基礎(chǔ)上只需要添加幾行簡(jiǎn)單代碼就可以無(wú)痛實(shí)現(xiàn)模型精度不變的前提下推理加速1.34倍以上,避免了顯式地進(jìn)行OpenVINO轉(zhuǎn)換以及推理部分代碼的重新編寫,大大簡(jiǎn)化OpenVINO工具的使用,加速AI算法在生產(chǎn)環(huán)境中的應(yīng)用部署。

無(wú)痛實(shí)現(xiàn) 1.34 倍加速推理

我們先來(lái)看看本文方法在模型推理加速上具體表現(xiàn):

可以看到,在同一測(cè)試環(huán)境下,OpenVINO 與 TensorFlow 的集成實(shí)現(xiàn)了 1.34 的加速幾何平均值,同時(shí),模型的準(zhǔn)確性保持不變:

具體實(shí)操

OpenVINO 與 TensorFlow 的集成專為使用 OpenVINO 工具套件的開發(fā)人員而設(shè)計(jì)——通過(guò)最少的代碼修改來(lái)提高推理應(yīng)用程序的性能。該集成為提高TensorFlow 兼容性提供以 OpenVINO 工具套件內(nèi)聯(lián)優(yōu)化和所需運(yùn)行時(shí),并加速了各種英特爾芯片上多類AI模型的推理。

通過(guò)將以下兩行代碼添加到 Python 代碼或 Jupyter Notebooks 中,就可以極大地加速你的 TensorFlow 模型的推理:

import openvino_tensorflowopenvino_tensorflow.set_backend(‘《backend_name》’)

OpenVINO 與 TensorFlow 的集成通過(guò)將 TensorFlow 圖巧妙地劃分為多個(gè)子圖,再將這些子圖分派到 TensorFlow 運(yùn)行時(shí)或 OpenVINO 運(yùn)行時(shí),從而實(shí)現(xiàn)最佳加速推理。

# 工作流概述

同時(shí),通過(guò) openvino_tensorflow ,我們能夠非常輕松地使用不同硬件:

更多的詳細(xì)信息可以前往 Github:

https://github.com/openvinotoolkit/openvino_tensorflow

# 在Extreme Vision notebooks中集成

在Extreme Vision IDE中可以直接將OpenVINO與TensorFlow集成。如下圖所示,你只需要簡(jiǎn)單地導(dǎo)入openvino_tensorflow,即可無(wú)縫加速 Jupyter Notebook 中在CPU上推理的所有 TensorFlow模型,同時(shí)可以繼續(xù)使用標(biāo)準(zhǔn)的TensorFlow API,而無(wú)需代碼重構(gòu)。

對(duì)推理加速更深的討論

從前文對(duì)推理加速上的結(jié)果展示中,我們可以看到通過(guò)添加 2 行代碼激活OpenVINO與 TensorFlow 的集成后,可以獲得最高達(dá) 10 倍的推理加速。但也有個(gè)別模型出現(xiàn)了異常情況,如Mask RCNN Atrous 和 SSD Mobilenet V2,因此我們對(duì)如何獲得最佳性能進(jìn)行了討論:

#01

OPENVINO_TF_MIN_NONTRIVIAL_NODES 變量

該變量設(shè)置了聚類中可以存在的最小操作數(shù)。如果操作數(shù)小于指定的數(shù)量,則聚類將回退到 TensorFlow。默認(rèn)情況是根據(jù)總圖大小計(jì)算的,但除非手動(dòng)設(shè)置,否則不能小于 6。另外,我們將此變量設(shè)置為 15 和 22 來(lái)觀察模型進(jìn)一步的性能增強(qiáng),并以此得到了最終的最佳推理性能。因此,在具體的開發(fā)應(yīng)用中應(yīng)通過(guò)默認(rèn)值或?qū)嶒?yàn)來(lái)確定能夠?yàn)槟P吞峁┳罴研阅艿淖兞孔罴阎怠?/p>

#02

凍結(jié) Keras 模型以獲得最佳性能

一些 Keras 模型可能包含訓(xùn)練操作,這會(huì)導(dǎo)致 TensorFlow 產(chǎn)生控制流。由于 OpenVINO 工具套件不支持這些操作,因此圖形可能會(huì)被劃分為較小的聚類。因此,在使用 OpenVINO 與 TensorFlow 的集成時(shí),凍結(jié)模型可以避免這些操作并提高整體性能。

使用 Keras API 的 DenseNet121 推理應(yīng)用代碼示例:

import tensorflow as tffrom tensorflow import kerasfrom tensorflow.keras.applications.densenet import DenseNet121# Add two lines of code to enable OpenVINO integration with TensorFlowimport openvino_tensorflowopenvino_tensorflow.set_backend("CPU")


model = DenseNet121(weights='imagenet')


# Run the inference using Keras API  model.predict(input_data)

下面是凍結(jié)和運(yùn)行 Keras 模型的一個(gè)示例代碼,通過(guò)這種方式,我們能夠優(yōu)化使用 OpenVINO 與 TensorFlow 的集成實(shí)現(xiàn)的最佳性能。

import tensorflow as tffrom tensorflow import kerasfrom tensorflow.keras.applications.densenet import DenseNet121from tensorflow.python.framework.convert_to_constants import convert_variables_to_constants_v2# Add two lines of code to enable OpenVINO integration with TensorFlowimport openvino_tensorflowopenvino_tensorflow.set_backend("CPU")


model = DenseNet121(weights='imagenet')


# Freeze the model first to achieve the best performance# using OpenVINO integration with TensorFlow    full_model = tf.function(lambda x: self.model(x))full_model = full_model.get_concrete_function(tf.TensorSpec(model.inputs[0].shape,model.inputs[0].dtype, name=model.inputs[0].name))frozen_func = convert_variables_to_constants_v2(full_model)frozen_func.graph.as_graph_def()session = tf.compat.v1.Session(graph=frozen_func.graph)prob_tensor = frozen_func.graph.get_tensor_by_name(full_model.outputs[0].name)


# Run the inference on the frozen modelsession.run(prob_tensor, feed_dict={full_model.inputs[0].name : input_data})

#03

Mask RCNN Atrous和SSD Mobilenet

如上文的結(jié)果所示,OpenVINO與TensorFlow的集成可以加速大多數(shù)TensorFlow模型,但由于一些模型具有OpenVINO與TensorFlow集成尚不完全支持的工作組件(例如運(yùn)算符、層等),如Mask RCNN Atrous和SSD Mobilenet V2等一些模型仍在開發(fā)完善中。

為了擴(kuò)大模型覆蓋范圍以及進(jìn)一步提升性能,極視角技術(shù)團(tuán)隊(duì)將會(huì)繼續(xù)測(cè)試和完善OpenVINO與TensorFlow的集成,以幫助更多使用TensorFlow開發(fā)人員能夠更好地應(yīng)用極市平臺(tái)。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • API
    API
    +關(guān)注

    關(guān)注

    2

    文章

    2375

    瀏覽量

    66805
  • SSD
    SSD
    +關(guān)注

    關(guān)注

    21

    文章

    3112

    瀏覽量

    122249
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39820

    瀏覽量

    301492
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4968

    瀏覽量

    73999

原文標(biāo)題:英特爾OpenVINO? 助力極視角AI推理加速

文章出處:【微信號(hào):英特爾物聯(lián)網(wǎng),微信公眾號(hào):英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    英特爾創(chuàng)新引領(lǐng)AI NAS:軟硬結(jié)合引領(lǐng)本地?cái)?shù)據(jù)智慧管理與多場(chǎng)景創(chuàng)新應(yīng)用

    展示面向中小企業(yè)、消費(fèi)者和專業(yè)用戶,賦能新場(chǎng)景、加速產(chǎn)品落地的最新技術(shù)方案。會(huì)上,綠聯(lián)、空間、鐵威馬、暢網(wǎng)、飛牛等AI NAS 廠商,發(fā)布和展示了一系列基于英特爾? 酷睿? Ultr
    的頭像 發(fā)表于 12-12 15:45 ?495次閱讀
    <b class='flag-5'>英特爾</b>創(chuàng)新引領(lǐng)<b class='flag-5'>AI</b> NAS:軟硬結(jié)合引領(lǐng)本地?cái)?shù)據(jù)智慧管理與多場(chǎng)景創(chuàng)新應(yīng)用

    向新而生,同“芯”向上!2025英特爾技術(shù)創(chuàng)新與產(chǎn)業(yè)生態(tài)大會(huì)在重慶舉行

    11月19日,2025英特爾技術(shù)創(chuàng)新與產(chǎn)業(yè)生態(tài)大會(huì)今天在重慶開幕。英特爾公司首席執(zhí)行官陳立武在視頻致辭中表示:“在AI浪潮中,我們持續(xù)加強(qiáng)與各位伙伴的合作,從客戶端、數(shù)據(jù)中心,到邊緣
    的頭像 發(fā)表于 11-19 21:34 ?5835次閱讀
    向新而生,同“芯”向上!2025<b class='flag-5'>英特爾</b>技術(shù)創(chuàng)新與產(chǎn)業(yè)生態(tài)大會(huì)在重慶舉行

    發(fā)力圖形工作站和AI推理市場(chǎng),英特爾大顯存GPU亮相灣芯展

    英特爾發(fā)布了面向?qū)I(yè)的銳炫Pro B50和B60。這兩款顯卡比較RTX2000和5660Ti,有哪些性能上的優(yōu)勢(shì)?在支持AI推理工作站和大模型部署上,B60有哪些獨(dú)到之處?10月16日,在深圳舉行的灣區(qū)半導(dǎo)體大會(huì)上,
    的頭像 發(fā)表于 10-22 13:40 ?1.1w次閱讀
    發(fā)力圖形工作站和<b class='flag-5'>AI</b><b class='flag-5'>推理</b>市場(chǎng),<b class='flag-5'>英特爾</b>大顯存GPU亮相灣芯展

    英特爾Gaudi 2E AI加速器為DeepSeek-V3.1提供加速支持

    英特爾? Gaudi 2EAI加速器現(xiàn)已為DeepSeek-V3.1提供深度優(yōu)化支持。憑借出色的性能和成本效益,英特爾Gaudi 2E以更低的投入、更高的效率,實(shí)現(xiàn)從模型訓(xùn)練的深度突破到推理
    的頭像 發(fā)表于 08-26 19:18 ?3038次閱讀
    <b class='flag-5'>英特爾</b>Gaudi 2E <b class='flag-5'>AI</b><b class='flag-5'>加速</b>器為DeepSeek-V3.1提供<b class='flag-5'>加速</b>支持

    硬件與應(yīng)用同頻共振,英特爾Day 0適配騰訊開源混元大模型

    OpenVINO? 構(gòu)建的 AI 軟件平臺(tái)的可擴(kuò)展性,英特爾助力ISV生態(tài)伙伴率先實(shí)現(xiàn)應(yīng)用端Day 0 模型適配,大幅加速了新模型的落地進(jìn)
    的頭像 發(fā)表于 08-07 14:42 ?1382次閱讀
    硬件與應(yīng)用同頻共振,<b class='flag-5'>英特爾</b>Day 0適配騰訊開源混元大模型

    主控CPU全能選手,英特爾至強(qiáng)6助力AI系統(tǒng)高效運(yùn)轉(zhuǎn)

    2025年3月,英偉達(dá)發(fā)布了DGX B300 AI加速計(jì)算平臺(tái)。2025年5月,英特爾發(fā)布了三款全新英特爾至強(qiáng)6性能核處理器,其中一款6776P被用作是DGX B300的主控CPU,這
    的頭像 發(fā)表于 06-27 11:44 ?899次閱讀
    主控CPU全能選手,<b class='flag-5'>英特爾</b>至強(qiáng)6<b class='flag-5'>助力</b><b class='flag-5'>AI</b>系統(tǒng)高效運(yùn)轉(zhuǎn)

    使用英特爾? NPU 插件C++運(yùn)行應(yīng)用程序時(shí)出現(xiàn)錯(cuò)誤:“std::Runtime_error at memory location”怎么解決?

    使用OpenVINO?工具套件版本 2024.4.0 構(gòu)建C++應(yīng)用程序 使用英特爾? NPU 插件運(yùn)行了 C++ 應(yīng)用程序 遇到的錯(cuò)誤: Microsoft C++ exception: std::runtime_error at memory location
    發(fā)表于 06-25 08:01

    英特爾發(fā)布邊緣AI控制器與邊緣智算一體機(jī),創(chuàng)造“AI新視界”

    在2025北京機(jī)器視覺(jué)展覽會(huì)(VisionChina)以“AI 視界:英特爾推動(dòng)智能制造革新浪潮”為主題的英特爾論壇中,英特爾與諾達(dá)佳聯(lián)合發(fā)布了 基于
    發(fā)表于 06-24 17:50 ?1520次閱讀
    <b class='flag-5'>英特爾</b>發(fā)布邊緣<b class='flag-5'>AI</b>控制器與邊緣智算一體機(jī),創(chuàng)造“<b class='flag-5'>AI</b>新視界”

    無(wú)法Openvino? 2025.0與onnx運(yùn)行時(shí)Openvino? 執(zhí)行提供程序 1.16.2 結(jié)合使用,怎么處理?

    使用OpenVINO?與英特爾 i5-8500 CPU 和超核處理器 630 iGPU 一起部署模型。 使用了 Microsoft.ML.OnnxRuntime.OpenVino
    發(fā)表于 06-24 06:31

    英特爾銳炫Pro B系列,邊緣AI的“智能引擎”

    CTO、高級(jí)首席AI工程師張宇博士 英特爾客戶端計(jì)算事業(yè)部邊緣計(jì)算CTO、高級(jí)首席AI工程師張宇博士在MWC AI終端峰會(huì)上指出,邊緣崛起
    的頭像 發(fā)表于 06-20 17:32 ?899次閱讀
    <b class='flag-5'>英特爾</b>銳炫Pro B系列,邊緣<b class='flag-5'>AI</b>的“智能引擎”

    直擊Computex 2025:英特爾重磅發(fā)布新一代GPU,圖形和AI性能躍升3.4倍

    電子發(fā)燒友原創(chuàng)? 章鷹 5月19日,在Computex 2025上,英特爾發(fā)布了最新全新圖形處理器(GPU)和AI加速器產(chǎn)品系列。包括全新英特爾銳炫? Pro B系列GPU——
    的頭像 發(fā)表于 05-21 00:57 ?7487次閱讀
    直擊Computex 2025:<b class='flag-5'>英特爾</b>重磅發(fā)布新一代GPU,圖形和<b class='flag-5'>AI</b>性能躍升3.4倍

    直擊Computex2025:英特爾重磅發(fā)布新一代GPU,圖形和AI性能躍升3.4倍

    5月19日,在Computex 2025上,英特爾發(fā)布了最新全新圖形處理器(GPU)和AI加速器產(chǎn)品系列。包括全新英特爾銳炫? Pro B系列GPU——
    的頭像 發(fā)表于 05-20 12:27 ?5459次閱讀
    直擊Computex2025:<b class='flag-5'>英特爾</b>重磅發(fā)布新一代GPU,圖形和<b class='flag-5'>AI</b>性能躍升3.4倍

    英特爾發(fā)布全新GPU,AI和工作站迎來(lái)新選擇

    Pro B50 GPU,搭載了為AI推理和專業(yè)工作站量身定制的配置,擴(kuò)展了英特爾銳炫Pro產(chǎn)品系列。 英特爾 ? Gaudi 3 AI
    發(fā)表于 05-20 11:03 ?1846次閱讀

    AI驅(qū)動(dòng)零售變革!英特爾AI方案助力中國(guó)廠商海外破局

    本次零售行業(yè)大會(huì)上,英特爾帶來(lái)了哪些技術(shù)解決方案?英特爾POS認(rèn)證計(jì)劃的推出,對(duì)于合作伙伴開拓海外市場(chǎng)帶來(lái)哪些助力?英特爾中國(guó)網(wǎng)絡(luò)與邊緣技術(shù)產(chǎn)品總監(jiān)王景佳、
    的頭像 發(fā)表于 05-15 18:19 ?6862次閱讀
    <b class='flag-5'>AI</b>驅(qū)動(dòng)零售變革!<b class='flag-5'>英特爾</b><b class='flag-5'>AI</b>方案<b class='flag-5'>助力</b>中國(guó)廠商海外破局

    英特爾借助開放生態(tài)系統(tǒng),加速邊緣AI創(chuàng)新

    英特爾推出全新AI邊緣系統(tǒng)、邊緣AI套件和開放邊緣平臺(tái)軟件,賦能合作伙伴AI無(wú)縫融入現(xiàn)有基礎(chǔ)設(shè)施 ?
    發(fā)表于 03-21 11:31 ?335次閱讀
    <b class='flag-5'>英特爾</b>借助開放生態(tài)系統(tǒng),<b class='flag-5'>加速</b>邊緣<b class='flag-5'>AI</b>創(chuàng)新