91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用TensorFlow決策森林創(chuàng)建提升樹(shù)模型

谷歌開(kāi)發(fā)者 ? 來(lái)源:TensorFlow ? 作者:TensorFlow ? 2022-04-19 10:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

發(fā)布人:TensorFlow 團(tuán)隊(duì)的 Mathieu Guillame-Bert 和 Josh Gordon

隨機(jī)森林和梯度提升樹(shù)這類的決策森林模型通常是處理表格數(shù)據(jù)最有效的可用工具。與神經(jīng)網(wǎng)絡(luò)相比,決策森林具有更多優(yōu)勢(shì),如配置過(guò)程更輕松、訓(xùn)練速度更快等。使用樹(shù)可大幅減少準(zhǔn)備數(shù)據(jù)集所需的代碼量,因?yàn)檫@些樹(shù)本身就可以處理數(shù)字、分類和缺失的特征。此外,這些樹(shù)通常還可提供開(kāi)箱即用的良好結(jié)果,并具有可解釋的屬性。

盡管我們通常將 TensorFlow 視為訓(xùn)練神經(jīng)網(wǎng)絡(luò)的內(nèi)容庫(kù),但 Google 的一個(gè)常見(jiàn)用例是使用 TensorFlow 創(chuàng)建決策森林。

08660ec6-bf00-11ec-9e50-dac502259ad0.gif

對(duì)數(shù)據(jù)開(kāi)展分類的決策樹(shù)動(dòng)畫(huà)

如果您曾使用 2019 年推出tf.estimator.BoostedTrees 創(chuàng)建基于樹(shù)的模型,您可參考本文所提供的指南進(jìn)行遷移。雖然 Estimator API 基本可以應(yīng)對(duì)在生產(chǎn)環(huán)境中使用模型的復(fù)雜性,包括分布式訓(xùn)練和序列化,但是我們不建議您將其用于新代碼。

如果您要開(kāi)始一個(gè)新項(xiàng)目,我們建議您使用 TensorFlow 決策森林 (TF-DF)。該內(nèi)容庫(kù)可為訓(xùn)練、服務(wù)和解讀決策森林模型提供最先進(jìn)的算法,相較于先前的方法更具優(yōu)勢(shì),特別是在質(zhì)量、速度和易用性方面表現(xiàn)尤為出色。

首先,讓我們來(lái)比較一下使用 Estimator API 和 TF-DF 創(chuàng)建提升樹(shù)模型的等效示例。

以下是使用 tf.estimator.BoostedTrees 訓(xùn)練梯度提升樹(shù)模型的舊方法(不再推薦使用)

import tensorflow as tf

# Dataset generators
def make_dataset_fn(dataset_path):
    def make_dataset():
        data = ... # read dataset
        return tf.data.Dataset.from_tensor_slices(...data...).repeat(10).batch(64)
    return make_dataset

# List the possible values for the feature "f_2".
f_2_dictionary = ["NA", "red", "blue", "green"]

# The feature columns define the input features of the model.
feature_columns = [
    tf.feature_column.numeric_column("f_1"),
    tf.feature_column.indicator_column(
       tf.feature_column.categorical_column_with_vocabulary_list("f_2",
         f_2_dictionary,
         # A special value "missing" is used to represent missing values.
         default_value=0)
       ),
    ]

# Configure the estimator
estimator = boosted_trees.BoostedTreesClassifier(
          n_trees=1000,
          feature_columns=feature_columns,
          n_classes=3,
          # Rule of thumb proposed in the BoostedTreesClassifier documentation.
          n_batches_per_layer=max(2, int(len(train_df) / 2 / FLAGS.batch_size)),
      )

# Stop the training is the validation loss stop decreasing.
early_stopping_hook = early_stopping.stop_if_no_decrease_hook(
      estimator,
      metric_name="loss",
      max_steps_without_decrease=100,
      min_steps=50)

tf.estimator.train_and_evaluate(
      estimator,
      train_spec=tf.estimator.TrainSpec(
          make_dataset_fn(train_path),
          hooks=[
              # Early stopping needs a CheckpointSaverHook.
              tf.train.CheckpointSaverHook(
                  checkpoint_dir=input_config.raw.temp_dir, save_steps=500),
              early_stopping_hook,
          ]),
      eval_spec=tf.estimator.EvalSpec(make_dataset_fn(valid_path)))

使用 TensorFlow 決策森林訓(xùn)練相同的模型

import tensorflow_decision_forests as tfdf

# Load the datasets
# This code is similar to the estimator.
def make_dataset(dataset_path):
    data = ... # read dataset
    return tf.data.Dataset.from_tensor_slices(...data...).batch(64)

train_dataset = make_dataset(train_path)
valid_dataset = make_dataset(valid_path)

# List the input features of the model.
features = [
  tfdf.keras.FeatureUsage("f_1", keras.FeatureSemantic.NUMERICAL),
  tfdf.keras.FeatureUsage("f_2", keras.FeatureSemantic.CATEGORICAL),
]

model = tfdf.keras.GradientBoostedTreesModel(
  task = tfdf.keras.Task.CLASSIFICATION,
  num_trees=1000,
  features=features,
  exclude_non_specified_features=True)

model.fit(train_dataset, valid_dataset)

# Export the model to a SavedModel.
model.save("project/model")

附注

  • 雖然在此示例中沒(méi)有明確說(shuō)明,但 TensorFlow 決策森林可自動(dòng)啟用和配置早停。

  • 可自動(dòng)構(gòu)建和優(yōu)化“f_2”特征字典(例如,將稀有值合并到一個(gè)未登錄詞項(xiàng)目中)。

  • 可從數(shù)據(jù)集中自動(dòng)確定類別數(shù)(本例中為 3 個(gè))。

  • 批次大?。ū纠袨?64)對(duì)模型訓(xùn)練沒(méi)有影響。以較大值為宜,因?yàn)檫@可以增加讀取數(shù)據(jù)集的效率。

TF-DF 的亮點(diǎn)就在于簡(jiǎn)單易用,我們還可進(jìn)一步簡(jiǎn)化和完善上述示例,如下所示。

如何訓(xùn)練 TensorFlow 決策森林(推薦解決方案)

import tensorflow_decision_forests as tfdf
import pandas as pd

# Pandas dataset can be used easily with pd_dataframe_to_tf_dataset.
train_df = pd.read_csv("project/train.csv")

# Convert the Pandas dataframe into a TensorFlow dataset.
train_ds = tfdf.keras.pd_dataframe_to_tf_dataset(train_df, label="my_label")

model = tfdf.keras.GradientBoostedTreeModel(num_trees=1000)
model.fit(train_dataset)

附注

  • 我們未指定特征的語(yǔ)義(例如數(shù)字或分類)。在這種情況下,系統(tǒng)將自動(dòng)推斷語(yǔ)義。

  • 我們也沒(méi)有列出要使用的輸入特征。在這種情況下,系統(tǒng)將使用所有列(標(biāo)簽除外)。可在訓(xùn)練日志中查看輸入特征的列表和語(yǔ)義,或通過(guò)模型檢查器 API 查看。

  • 我們沒(méi)有指定任何驗(yàn)證數(shù)據(jù)集。每個(gè)算法都可以從訓(xùn)練樣本中提取一個(gè)驗(yàn)證數(shù)據(jù)集作為算法的最佳選擇。例如,默認(rèn)情況下,如果未提供驗(yàn)證數(shù)據(jù)集,則 GradientBoostedTreeModel 將使用 10% 的訓(xùn)練數(shù)據(jù)進(jìn)行驗(yàn)證。

下面我們將介紹 Estimator API 和 TF-DF 的一些區(qū)別。

Estimator API 和 TF-DF 的區(qū)別

算法類型

TF-DF 是決策森林算法的集合,包括(但不限于)Estimator API 提供的梯度提升樹(shù)。請(qǐng)注意,TF-DF 還支持隨機(jī)森林(非常適用于干擾數(shù)據(jù)集)和 CART 實(shí)現(xiàn)(非常適用于解讀模型)。

此外,對(duì)于每個(gè)算法,TF-DF 都包含許多在文獻(xiàn)資料中發(fā)現(xiàn)并經(jīng)過(guò)實(shí)驗(yàn)驗(yàn)證的變體 [1, 2, 3]。

精確與近似分塊的對(duì)比

TF1 GBT Estimator 是一種近似的樹(shù)學(xué)習(xí)算法。非正式情況下,Estimator 通過(guò)僅考慮樣本的隨機(jī)子集和每個(gè)步驟條件的隨機(jī)子集來(lái)構(gòu)建樹(shù)。

默認(rèn)情況下,TF-DF 是一種精確的樹(shù)訓(xùn)練算法。非正式情況下,TF-DF 會(huì)考慮所有訓(xùn)練樣本和每個(gè)步驟的所有可能分塊。這是一種更常見(jiàn)且通常表現(xiàn)更佳的解決方案。

雖然對(duì)于較大的數(shù)據(jù)集(具有百億數(shù)量級(jí)以上的“樣本和特征”數(shù)組)而言,有時(shí) Estimator 的速度更快,但其近似值通常不太準(zhǔn)確(因?yàn)樾枰N植更多樹(shù)才能達(dá)到相同的質(zhì)量)。而對(duì)于小型數(shù)據(jù)集(所含的“樣本和特征”數(shù)組數(shù)目不足一億)而言,使用 Estimator 實(shí)現(xiàn)近似訓(xùn)練形式的速度甚至可能比精確訓(xùn)練更慢。

TF-DF 還支持不同類型的“近似”樹(shù)訓(xùn)練。我們建議您使用精確訓(xùn)練法,并選擇使用大型數(shù)據(jù)集測(cè)試近似訓(xùn)練。

推理

Estimator 使用自上而下的樹(shù)路由算法運(yùn)行模型推理。TF-DF 使用 QuickScorer 算法的擴(kuò)展程序。

雖然兩種算法返回的結(jié)果完全相同,但自上而下的算法效率較低,因?yàn)檫@種算法的計(jì)算量會(huì)超出分支預(yù)測(cè)并導(dǎo)致緩存未命中。對(duì)于同一模型,TF-DF 的推理速度通??商嵘?10 倍。

TF-DF 可為延遲關(guān)鍵應(yīng)用程序提供 C++ API。其推理時(shí)間約為每核心每樣本 1 微秒。與 TF SavedModel 推理相比,這通??蓪⑺俣忍嵘?50 至 1000 倍(對(duì)小型批次的效果更佳)。

多頭模型

Estimator 支持多頭模型(即輸出多種預(yù)測(cè)的模型)。目前,TF-DF 無(wú)法直接支持多頭模型,但是借助 Keras Functional API,TF-DF 可以將多個(gè)并行訓(xùn)練的 TF-DF 模型組成一個(gè)多頭模型。

了解詳情

您可以訪問(wèn)此網(wǎng)址,詳細(xì)了解 TensorFlow 決策森林。

如果您是首次接觸該內(nèi)容庫(kù),我們建議您從初學(xué)者示例開(kāi)始。經(jīng)驗(yàn)豐富的 TensorFlow 用戶可以訪問(wèn)此指南,詳細(xì)了解有關(guān)在 TensorFlow 中使用決策森林和神經(jīng)網(wǎng)絡(luò)的區(qū)別要點(diǎn),包括如何配置訓(xùn)練流水線和關(guān)于數(shù)據(jù)集 I/O 的提示。

您還可以仔細(xì)閱讀Estimator 遷移到 Keras API,了解如何從 Estimator 遷移到 Keras。

原文標(biāo)題:如何從提升樹(shù) Estimator 遷移到 TensorFlow 決策森林

文章出處:【微信公眾號(hào):谷歌開(kāi)發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

審核編輯:湯梓紅
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Google
    +關(guān)注

    關(guān)注

    5

    文章

    1807

    瀏覽量

    60535
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3755

    瀏覽量

    52125
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    334

    瀏覽量

    62196

原文標(biāo)題:如何從提升樹(shù) Estimator 遷移到 TensorFlow 決策森林

文章出處:【微信號(hào):Google_Developers,微信公眾號(hào):谷歌開(kāi)發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    使用NORDIC AI的好處

    提升能效,適合音頻、圖像和高采樣率傳感器等更重的 AI 負(fù)載。[Axon NPU 技術(shù)頁(yè)] 模型更小、更快、更省電 Neuton 模型相較 TensorFlow Lite:* 內(nèi)存
    發(fā)表于 01-31 23:16

    Raythink燧石熱像儀精準(zhǔn)監(jiān)測(cè),賦能森林防火智能升級(jí)!

    森林草原防滅火條例》自2026年1月1日起正式實(shí)施,其中“預(yù)防為主”被明確列為工作方針,并在第九條明確鼓勵(lì)科技創(chuàng)新與先進(jìn)裝備研發(fā)應(yīng)用,旨在提升監(jiān)測(cè)預(yù)警的科技化、標(biāo)準(zhǔn)化水平。在這一政策背景下,技術(shù)
    的頭像 發(fā)表于 01-30 11:58 ?452次閱讀
    Raythink燧石熱像儀精準(zhǔn)監(jiān)測(cè),賦能<b class='flag-5'>森林</b>防火智能升級(jí)!

    五大衛(wèi)星運(yùn)管中心大模型智能決策分系統(tǒng)軟件的應(yīng)用與未來(lái)發(fā)展

    ? ? 五大機(jī)構(gòu)/企業(yè)衛(wèi)星運(yùn)管中心大模型智能決策分系統(tǒng)實(shí)踐綜述 ? ?當(dāng)前,隨著大規(guī)模星座部署與智能化作戰(zhàn)需求激增,以大模型驅(qū)動(dòng)的衛(wèi)星智能決策系統(tǒng)成為全球航天強(qiáng)國(guó)和頭部企業(yè)的戰(zhàn)略焦點(diǎn)。
    的頭像 發(fā)表于 12-18 14:58 ?374次閱讀

    永銘超級(jí)電容SLM系列賦能森林防火監(jiān)控系統(tǒng),凸顯關(guān)鍵電容優(yōu)勢(shì)

    DESIGNER'SDREAM森林防火監(jiān)控系統(tǒng)的市場(chǎng)前景01隨著氣候變化導(dǎo)致全球范圍內(nèi)極端天氣增多,各國(guó)政府和相關(guān)部門對(duì)森林防火工作的重視程度不斷提升,對(duì)高效、智能化的森林
    的頭像 發(fā)表于 09-01 10:08 ?602次閱讀
    永銘超級(jí)電容SLM系列賦能<b class='flag-5'>森林</b>防火監(jiān)控系統(tǒng),凸顯關(guān)鍵電容優(yōu)勢(shì)

    利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能

    如果你關(guān)注最新進(jìn)展,可能已經(jīng)知道 Nordic Semiconductor 收購(gòu)了 Neuton.AI。 Neuton 是一家邊緣 AI 公司,致力于使機(jī)器學(xué)習(xí)模型更易于訪問(wèn)。它創(chuàng)建模型比競(jìng)爭(zhēng)對(duì)手
    發(fā)表于 08-31 20:54

    超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級(jí)芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    Neuton 是一家邊緣AI 公司,致力于讓機(jī)器 學(xué)習(xí)模型更易于使用。它創(chuàng)建模型比競(jìng)爭(zhēng)對(duì)手的框架小10 倍,速度也快10 倍,甚至可以在最先進(jìn)的邊緣設(shè)備上進(jìn)行人工智能處理。在這篇博文中,我們將介紹
    發(fā)表于 07-31 11:38

    晶圓切割深度動(dòng)態(tài)補(bǔ)償?shù)闹悄?b class='flag-5'>決策模型與 TTV 預(yù)測(cè)控制

    摘要:本文針對(duì)超薄晶圓切割過(guò)程中 TTV 均勻性控制難題,研究晶圓切割深度動(dòng)態(tài)補(bǔ)償?shù)闹悄?b class='flag-5'>決策模型與 TTV 預(yù)測(cè)控制方法。分析影響切割深度與 TTV 的關(guān)鍵因素,闡述智能決策模型的構(gòu)建
    的頭像 發(fā)表于 07-23 09:54 ?581次閱讀
    晶圓切割深度動(dòng)態(tài)補(bǔ)償?shù)闹悄?b class='flag-5'>決策</b><b class='flag-5'>模型</b>與 TTV 預(yù)測(cè)控制

    從火場(chǎng)到指揮部:云翎智能如何用無(wú)線自組網(wǎng)縮短森林救援響應(yīng)時(shí)間

    森林火災(zāi)救援中,通信中斷與延遲常導(dǎo)致決策滯后。云翎智能通過(guò)無(wú)線自組網(wǎng)(MESH)技術(shù),構(gòu)建無(wú)中心動(dòng)態(tài)網(wǎng)絡(luò),支持多跳中繼與自愈合,在復(fù)雜地形中實(shí)現(xiàn)火場(chǎng)與指揮部的實(shí)時(shí)通信。該技術(shù)具備抗干擾、穿透力強(qiáng)
    的頭像 發(fā)表于 07-17 20:55 ?595次閱讀
    從火場(chǎng)到指揮部:云翎智能如何用無(wú)線自組網(wǎng)縮短<b class='flag-5'>森林</b>救援響應(yīng)時(shí)間

    構(gòu)建生命線:云翎智能應(yīng)急通信自組網(wǎng)如何為森林防火贏得黃金救援時(shí)間

    森林火災(zāi)的黃金救援時(shí)間以分鐘計(jì),傳統(tǒng)通信常因地形復(fù)雜、公網(wǎng)薄弱導(dǎo)致失聯(lián)。云翎智能應(yīng)急通信自組網(wǎng)以無(wú)中心自組網(wǎng)技術(shù)實(shí)現(xiàn)3分鐘快速建網(wǎng),通過(guò)寬窄帶融合傳輸火場(chǎng)動(dòng)態(tài),結(jié)合北斗短報(bào)文補(bǔ)盲,讓指揮中心秒級(jí)決策
    的頭像 發(fā)表于 07-14 22:04 ?565次閱讀
    構(gòu)建生命線:云翎智能應(yīng)急通信自組網(wǎng)如何為<b class='flag-5'>森林</b>防火贏得黃金救援時(shí)間

    無(wú)法將Tensorflow Lite模型轉(zhuǎn)換為OpenVINO?格式怎么處理?

    Tensorflow Lite 模型轉(zhuǎn)換為 OpenVINO? 格式。 遇到的錯(cuò)誤: FrontEnd API failed with OpConversionFailure:No translator found for TFLite_Detection_PostP
    發(fā)表于 06-25 08:27

    工業(yè)數(shù)據(jù)中臺(tái)如何支持智能決策

    工業(yè)數(shù)據(jù)中臺(tái)通過(guò) 數(shù)據(jù)整合、模型構(gòu)建、實(shí)時(shí)響應(yīng)與業(yè)務(wù)閉環(huán) 四大核心能力,將數(shù)據(jù)轉(zhuǎn)化為可執(zhí)行的決策依據(jù),推動(dòng)企業(yè)從“經(jīng)驗(yàn)驅(qū)動(dòng)”向“數(shù)據(jù)驅(qū)動(dòng)”轉(zhuǎn)型。以下是具體支持路徑與案例說(shuō)明: ? 一、數(shù)據(jù)整合與特征
    的頭像 發(fā)表于 06-16 17:13 ?526次閱讀

    地物光譜儀+林地調(diào)查,精準(zhǔn)掌握森林生長(zhǎng)與病變數(shù)據(jù)

    高光譜遙感的核心地面工具,正在與林地調(diào)查深度融合,為森林監(jiān)測(cè)提供第一手的高精度數(shù)據(jù)支持。 一、森林調(diào)查為何需要地物光譜儀 傳統(tǒng)森林調(diào)查方法依賴于人工測(cè)量,如樹(shù)高、胸徑、物種識(shí)別和樣方調(diào)
    的頭像 發(fā)表于 05-23 15:00 ?903次閱讀
    地物光譜儀+林地調(diào)查,精準(zhǔn)掌握<b class='flag-5'>森林</b>生長(zhǎng)與病變數(shù)據(jù)

    自動(dòng)駕駛中基于規(guī)則的決策和端到端大模型有何區(qū)別?

    在自動(dòng)駕駛架構(gòu)的選擇上,也經(jīng)歷了從感知、決策控制、執(zhí)行的三段式架構(gòu)到現(xiàn)在火熱的端到端大模型,尤其是在2024年特斯拉推出FSD V12后,各車企更是陸續(xù)推出自家的端到端大模型,這一概念也成為各車企發(fā)布會(huì)的重頭戲。
    的頭像 發(fā)表于 04-13 09:38 ?3747次閱讀
    自動(dòng)駕駛中基于規(guī)則的<b class='flag-5'>決策</b>和端到端大<b class='flag-5'>模型</b>有何區(qū)別?

    用樹(shù)莓派搞深度學(xué)習(xí)?TensorFlow啟動(dòng)!

    RaspberryPi4上運(yùn)行TensorFlow,但不要期望有奇跡般的表現(xiàn)。如果模型不太復(fù)雜,它可以運(yùn)行您的模型,但無(wú)法訓(xùn)練新模型,也無(wú)法執(zhí)行所謂的遷移學(xué)習(xí)。除了運(yùn)行您預(yù)
    的頭像 發(fā)表于 03-25 09:33 ?1214次閱讀
    用樹(shù)莓派搞深度學(xué)習(xí)?<b class='flag-5'>TensorFlow</b>啟動(dòng)!

    請(qǐng)問(wèn)如何在imx8mplus上部署和運(yùn)行YOLOv5訓(xùn)練的模型

    。我在 yo tflite 中轉(zhuǎn)換模型并嘗試在 tensorflow 腳本上運(yùn)行模型,但它不起作用。 如何在 imx8mplus 上運(yùn)行 YOLOv5 模型? 在 imx8mplus
    發(fā)表于 03-25 07:23