91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何在英特爾獨(dú)立顯卡上訓(xùn)練TensorFlow模型的全流程

英特爾物聯(lián)網(wǎng) ? 來源:英特爾物聯(lián)網(wǎng) ? 2023-01-12 15:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文將基于蝰蛇峽谷(Serpent Canyon) 詳細(xì)介紹如何在英特爾獨(dú)立顯卡上訓(xùn)練 TensorFlow 模型的全流程。

1.1 英特爾 銳炫 獨(dú)立顯卡簡介

38200bf4-9244-11ed-bfe3-dac502259ad0.png

英特爾 銳炫 顯卡基于 Xe-HPG 微架構(gòu),Xe HPG GPU 中的每個(gè) Xe 內(nèi)核都配置了一組 256 位矢量引擎,旨在加速傳統(tǒng)圖形和計(jì)算工作負(fù)載,以及新的 1024 位矩陣引擎或 Xe 矩陣擴(kuò)展,旨在加速人工智能工作負(fù)載

1.2 蝰蛇峽谷簡介

389abb60-9244-11ed-bfe3-dac502259ad0.png

蝰蛇峽谷(Serpent Canyon) 是一款性能強(qiáng)勁,并且體積小巧的高性能迷你主機(jī),搭載全新一代混合架構(gòu)的第 12 代智能英特爾 酷睿 處理器,并且內(nèi)置了英特爾 銳炫 A770M 獨(dú)立顯卡。

搭建訓(xùn)練 TensorFlow 模型的開發(fā)環(huán)境

Windows 版本要求

訓(xùn)練 TensorFlow 所依賴的軟件包 TensorFlow-DirectML-Plugin 包要求:

Windows 10的版本≥1709

Windows 11的版本≥21H2

用“Windows logo 鍵+ R鍵”啟動(dòng)“運(yùn)行”窗口,然后輸入命令“winver”可以查得Windows版本。

38cefb50-9244-11ed-bfe3-dac502259ad0.png

下載并安裝最新的英特爾顯卡驅(qū)動(dòng)

到英特爾官網(wǎng)下載并安裝最新的英特爾顯卡驅(qū)動(dòng)。驅(qū)動(dòng)下載鏈接:

https://www.intel.cn/content/www/cn/zh/download/726609/intel-arc-iris-xe-graphics-whql-windows.html

下載并安裝Anaconda

下載并安裝 Python 虛擬環(huán)境和軟件包管理工具Anaconda:

https://www.anaconda.com/

安裝完畢后,用下面的命令創(chuàng)建并激活虛擬環(huán)境tf2_a770:

conda create --name tf2_a770 python=3.9
conda activate tf2_a770

向右滑動(dòng)查看完整代碼

安裝TensorFlow2

在虛擬環(huán)境 tf2_a770 中安裝 TensorFlow 2.10。需要注意的是:tensorflow-directml-plugin軟件包當(dāng)前只支持TensorFlow 2.10

pip install tensorflow-cpu==2.10

向右滑動(dòng)查看完整代碼

安裝 tensorflow-directml-plugin

在虛擬環(huán)境 tf2_a770 中安裝 tensorflow-directml-plugin,這是一個(gè)在 Windows 平臺(tái)上的機(jī)器學(xué)習(xí)訓(xùn)練加速軟件包。

 // @brief 加載推理數(shù)據(jù)
    // @param input_node_name 輸入節(jié)點(diǎn)名
    // @param input_data 輸入數(shù)據(jù)數(shù)組
    public void load_input_data(string input_node_name, float[] input_data) {
      ptr = NativeMethods.load_input_data(ptr, input_node_name, ref input_data[0]);
    }
    // @brief 加載圖片推理數(shù)據(jù)
    // @param input_node_name 輸入節(jié)點(diǎn)名
    // @param image_data 圖片矩陣
    // @param image_size 圖片矩陣長度
    public void load_input_data(string input_node_name, byte[] image_data, ulong image_size, int type) {
      ptr = NativeMethods.load_image_input_data(ptr, input_node_name, ref image_data[0], image_size, type);
    }

向右滑動(dòng)查看完整代碼

到此,在 Windows 平臺(tái)上用英特爾獨(dú)立顯卡訓(xùn)練 TensorFlow 模型的開發(fā)環(huán)境配置完畢。

在英特爾獨(dú)立顯卡上訓(xùn)練 TensorFlow 模型

下載并解壓 flower 數(shù)據(jù)集

用下載器(例如,迅雷)下載并解壓 flower 數(shù)據(jù)集,下載鏈接:

https://storage.googleapis.com/download.tensorflow.org/example_images/flower_photos.tgz

38e7ba50-9244-11ed-bfe3-dac502259ad0.png

下載訓(xùn)練代碼啟動(dòng)訓(xùn)練

請下載 tf2_training_on_A770.py 并放入 flower_photos 同一個(gè)文件夾下運(yùn)行。鏈接:

https://gitee.com/ppov-nuc/training_on_intel_GPU/blob/main/tf2_training_on_A770.py

from pathlib import Path
import tensorflow as tf
data_dir = Path("flower_photos")
image_count = len(list(data_dir.glob('*/*.jpg')))
print("Number of image files:", image_count)
# 導(dǎo)入Flower數(shù)據(jù)集
train_ds = tf.keras.utils.image_dataset_from_directory(data_dir, validation_split=0.2,
 subset="training", seed=123, image_size=(180, 180), batch_size=32)
val_ds = tf.keras.utils.image_dataset_from_directory(data_dir, validation_split=0.2, subset="validation", seed=123, image_size=(180, 180), batch_size=32)
# 啟動(dòng)預(yù)取和數(shù)據(jù)緩存
train_ds = train_ds.cache().shuffle(1000).prefetch(buffer_size=tf.data.AUTOTUNE)
val_ds = val_ds.cache().prefetch(buffer_size=tf.data.AUTOTUNE)
# 創(chuàng)建模型
model = tf.keras.Sequential([
 tf.keras.layers.Rescaling(1./255),
 tf.keras.layers.Conv2D(16, 3, padding='same', activation='relu'),
 tf.keras.layers.MaxPooling2D(),
 tf.keras.layers.Conv2D(32, 3, padding='same', activation='relu'),
 tf.keras.layers.MaxPooling2D(),
 tf.keras.layers.Conv2D(64, 3, padding='same', activation='relu'),
 tf.keras.layers.MaxPooling2D(),
 tf.keras.layers.Dropout(0.2),
 tf.keras.layers.Flatten(),
 tf.keras.layers.Dense(128, activation='relu'),
 tf.keras.layers.Dense(5)
])
# 編譯模型
model.compile(optimizer='adam',
 loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),
 metrics=['accuracy'])
#訓(xùn)練模型
model.fit(train_ds,validation_data=val_ds,epochs=20)

向右滑動(dòng)查看完整代碼

390bbbd0-9244-11ed-bfe3-dac502259ad0.png

總結(jié)

英特爾獨(dú)立顯卡支持 TensorFlow 模型訓(xùn)練。下一篇文章,我們將介紹在英特爾獨(dú)立顯卡上訓(xùn)練 PyTorch 模型。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    61

    文章

    10301

    瀏覽量

    180417
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3751

    瀏覽量

    52099
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    334

    瀏覽量

    62172

原文標(biāo)題:在英特爾獨(dú)立顯卡上訓(xùn)練TensorFlow模型 | 開發(fā)者實(shí)戰(zhàn)

文章出處:【微信號(hào):英特爾物聯(lián)網(wǎng),微信公眾號(hào):英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    發(fā)力圖形工作站和AI推理市場,英特爾大顯存GPU亮相灣芯展

    英特爾發(fā)布了面向?qū)I(yè)的銳炫Pro B50和B60。這兩款顯卡比較RTX2000和5660Ti,有哪些性能上的優(yōu)勢?在支持AI推理工作站和大模型部署,B60有哪些獨(dú)到之處?10月16日
    的頭像 發(fā)表于 10-22 13:40 ?1.1w次閱讀
    發(fā)力圖形工作站和AI推理市場,<b class='flag-5'>英特爾</b>大顯存GPU亮相灣芯展

    英特爾Gaudi 2E AI加速器為DeepSeek-V3.1提供加速支持

    英特爾? Gaudi 2EAI加速器現(xiàn)已為DeepSeek-V3.1提供深度優(yōu)化支持。憑借出色的性能和成本效益,英特爾Gaudi 2E以更低的投入、更高的效率,實(shí)現(xiàn)從模型訓(xùn)練的深度突破
    的頭像 發(fā)表于 08-26 19:18 ?3022次閱讀
    <b class='flag-5'>英特爾</b>Gaudi 2E AI加速器為DeepSeek-V3.1提供加速支持

    硬件與應(yīng)用同頻共振,英特爾Day 0適配騰訊開源混元大模型

    今日,騰訊正式發(fā)布新一代混元開源大語言模型英特爾憑借在人工智能領(lǐng)域的棧技術(shù)布局,現(xiàn)已在英特爾? 酷睿? Ultra 平臺(tái)上完成針對該模型
    的頭像 發(fā)表于 08-07 14:42 ?1365次閱讀
    硬件與應(yīng)用同頻共振,<b class='flag-5'>英特爾</b>Day 0適配騰訊開源混元大<b class='flag-5'>模型</b>

    新思科技與英特爾在EDA和IP領(lǐng)域展開深度合作

    近日,在英特爾代工Direct Connect 2025,新思科技宣布與英特爾在EDA和IP領(lǐng)域展開深度合作,包括利用其通過認(rèn)證的AI驅(qū)動(dòng)數(shù)字和模擬設(shè)計(jì)流程支持
    的頭像 發(fā)表于 05-22 15:35 ?997次閱讀

    直擊Computex 2025:英特爾重磅發(fā)布新一代GPU,圖形和AI性能躍升3.4倍

    電子發(fā)燒友原創(chuàng)? 章鷹 5月19日,在Computex 2025,英特爾發(fā)布了最新全新圖形處理器(GPU)和AI加速器產(chǎn)品系列。包括全新英特爾銳炫? Pro B系列GPU——英特爾
    的頭像 發(fā)表于 05-21 00:57 ?7465次閱讀
    直擊Computex 2025:<b class='flag-5'>英特爾</b>重磅發(fā)布新一代GPU,圖形和AI性能躍升3.4倍

    英特爾發(fā)布全新GPU,AI和工作站迎來新選擇

    Computex 2025,英特爾發(fā)布了為專業(yè)人士和開發(fā)者設(shè)計(jì)的全新圖形處理器(GPU)和AI加速器產(chǎn)品系列。包括: 全新英特爾銳炫 ? Pro B 系列 GPU : 英特爾銳炫Pr
    發(fā)表于 05-20 11:03 ?1844次閱讀

    英特爾持續(xù)推進(jìn)核心制程和先進(jìn)封裝技術(shù)創(chuàng)新,分享最新進(jìn)展

    ,英特爾代工已取得重要里程碑。例如,Intel 18A制程節(jié)點(diǎn)已進(jìn)入風(fēng)險(xiǎn)試產(chǎn)階段,并計(jì)劃于今年內(nèi)實(shí)現(xiàn)正式量產(chǎn)。這一節(jié)點(diǎn)采用了PowerVia背面供電技術(shù)和RibbonFET環(huán)繞柵極晶體管。英特爾代工的生態(tài)系統(tǒng)合作伙伴為Inte
    的頭像 發(fā)表于 05-09 11:42 ?869次閱讀
    <b class='flag-5'>英特爾</b>持續(xù)推進(jìn)核心制程和先進(jìn)封裝技術(shù)創(chuàng)新,分享最新進(jìn)展

    何在Ubuntu安裝NVIDIA顯卡驅(qū)動(dòng)?

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 一,前言 對于使用NVIDIA顯卡的Ubuntu用戶來說,正確安裝顯卡驅(qū)動(dòng)是獲得最佳圖形性能的關(guān)鍵。與Windows系統(tǒng)不同,Linux系統(tǒng)通常不會(huì)自動(dòng)安裝
    的頭像 發(fā)表于 05-07 16:05 ?2488次閱讀
    如<b class='flag-5'>何在</b>Ubuntu<b class='flag-5'>上</b>安裝NVIDIA<b class='flag-5'>顯卡</b>驅(qū)動(dòng)?

    模型時(shí)代的深度學(xué)習(xí)框架

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 在 CNN時(shí)代 ,AI模型的參數(shù)規(guī)模都在百萬級(jí)別,僅需在單張消費(fèi)類顯卡即可完成訓(xùn)練。例如,以業(yè)界
    的頭像 發(fā)表于 04-25 11:43 ?834次閱讀
    大<b class='flag-5'>模型</b>時(shí)代的深度學(xué)習(xí)框架

    更高效更安全的商務(wù)會(huì)議:英特爾聯(lián)合海信推出會(huì)議領(lǐng)域新型垂域模型方案

    2025年4月16日,北京 ——在今日召開的專業(yè)視聽行業(yè)的年度盛會(huì)InfoComm China 2025,英特爾攜手海信聯(lián)合發(fā)布海信自研端側(cè)會(huì)議領(lǐng)域垂域模型解決方案,助力商務(wù)會(huì)議更加安全、高效
    的頭像 發(fā)表于 04-21 09:50 ?832次閱讀
    更高效更安全的商務(wù)會(huì)議:<b class='flag-5'>英特爾</b>聯(lián)合海信推出會(huì)議領(lǐng)域新型垂域<b class='flag-5'>模型</b>方案

    部署成本顯著降低!英特爾助陣高效AI算力一體機(jī)方案

    3月27日,英特爾舉辦了名為“‘至’繪未來,銳炫來襲”的創(chuàng)新解決方案研討會(huì),與生態(tài)伙伴共同分享最新AI算力一體機(jī)方案。該方案基于英特爾?至強(qiáng)? W處理器和多個(gè)英特爾銳炫?顯卡,可為日益
    的頭像 發(fā)表于 03-29 16:29 ?2089次閱讀
    部署成本顯著降低!<b class='flag-5'>英特爾</b>助陣高效AI算力一體機(jī)方案

    請問如何在imx8mplus上部署和運(yùn)行YOLOv5訓(xùn)練模型

    。我在 yo tflite 中轉(zhuǎn)換模型并嘗試在 tensorflow 腳本運(yùn)行模型,但它不起作用。 如何在 imx8mplus
    發(fā)表于 03-25 07:23

    用PaddleNLP為GPT-2模型制作FineWeb二進(jìn)制預(yù)訓(xùn)練數(shù)據(jù)集

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 《用PaddleNLP在4060單卡實(shí)踐大模型預(yù)訓(xùn)練技術(shù)》發(fā)布后收到讀者熱烈反響,很多讀者要求進(jìn)一步講解更多的技術(shù)細(xì)節(jié)。本文主要針對大語言
    的頭像 發(fā)表于 03-21 18:24 ?4295次閱讀
    用PaddleNLP為GPT-2<b class='flag-5'>模型</b>制作FineWeb二進(jìn)制預(yù)<b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)集

    憶聯(lián)PCIe 5.0 SSD支撐大模型流程訓(xùn)練

    當(dāng)前,大模型流程訓(xùn)練對數(shù)據(jù)存儲(chǔ)系統(tǒng)的要求已突破傳統(tǒng)邊界。企業(yè)級(jí)SSD作為AI算力基礎(chǔ)設(shè)施的核心組件,其高可靠性、高性能及智能化管理能力,正成為支撐大
    的頭像 發(fā)表于 03-11 10:26 ?1138次閱讀
    憶聯(lián)PCIe 5.0 SSD支撐大<b class='flag-5'>模型</b><b class='flag-5'>全</b><b class='flag-5'>流程</b><b class='flag-5'>訓(xùn)練</b>

    英特爾銳炫B系列顯卡XeSS 2技術(shù)正式支持網(wǎng)易游戲

    當(dāng)霹靂火劃破紐約街道的瞬間,你是否沉浸在絲滑流暢的決勝時(shí)刻?在龍隱洞天刀光劍影的生死對決中,0.1秒的延遲也可能成為勝負(fù)關(guān)鍵。全新英特爾銳炫?B系列顯卡(代號(hào)Battlemage)與多款火爆游戲
    的頭像 發(fā)表于 03-08 09:19 ?1278次閱讀