91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

新書《解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實踐》試讀

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-11-10 10:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

“市面上深度學(xué)習(xí)書籍已不少,但專門針對卷積神經(jīng)網(wǎng)絡(luò)展開,側(cè)重實踐又不失論釋者尚不多見。本書基本覆蓋了卷積神經(jīng)網(wǎng)絡(luò)實踐所涉之環(huán)節(jié),作者交代的若干心得技巧亦可一觀,讀者在實踐中或有見益?!?/p>

這是周志華教授對他的學(xué)生、南京大學(xué)LAMDA研究所博士魏秀參所著新書《解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實踐》的高度評價。

魏秀參專注于卷積神經(jīng)網(wǎng)絡(luò)及其視覺應(yīng)用,先后師從周志華教授和吳建鑫教授,在相關(guān)領(lǐng)域重要國際期刊和國際會議發(fā)表論文十余篇,并兩次獲得國際計算機視覺相關(guān)競賽冠、亞軍,博士未畢業(yè)即被曠視科技聘為南京研究院負責人。

機器學(xué)習(xí)領(lǐng)域?qū)I(yè)、實用的好書很多,但多是英文翻譯而來,中文書籍委實不多,魏秀參的新書是其中令人眼前一亮的一本。正如作者所說,“這是一本面向中文讀者的輕量級、偏實用的深度學(xué)習(xí)工具書”,向讀者剖析了卷積神經(jīng)網(wǎng)絡(luò)的基本部件與工作機理,更重要的是系統(tǒng)性地介紹了深度卷積神經(jīng)網(wǎng)絡(luò)在實踐應(yīng)用方面的細節(jié)配置與工程經(jīng)驗。

周志華推薦序

卷積神經(jīng)網(wǎng)絡(luò)乃機器學(xué)習(xí)領(lǐng)域中深度學(xué)習(xí)技術(shù)最著名內(nèi)容之一。魏秀參博士在LAMDA 求學(xué)數(shù)年,對卷積神經(jīng)網(wǎng)絡(luò)及其視覺應(yīng)用頗有所長,博士未畢業(yè)即被曠視科技聘為南京研究院負責人,畢業(yè)之際將心得材料轉(zhuǎn)撰成書請愚致序。師生之誼,盛情難卻。

在國內(nèi)計算機領(lǐng)域,寫書乃吃力不討好之事。且不論寫一本耐讀、令讀者每閱皆有所獲之書何等不易,更不消說眾口難調(diào)出一本令各型讀者皆贊之書何等無望,僅認真寫書所耗時間精力之巨、提職時不若期刊論文之效、收入不比同等精力兼差打工之得,已令人生畏,何況稍有不慎就有誤人子弟之嫌,令一線學(xué)者若不狠心苛己,實難著手。

然有志求學(xué)本領(lǐng)域之士漸增,母語優(yōu)良讀物之不足實礙科學(xué)技術(shù)乃至產(chǎn)業(yè)發(fā)展。畢竟未必眾人皆慣閱外文書籍,亦未必盡能體會外文微妙表達變化之蘊義,更不消說母語閱讀對新入行者之輕快適意。愚曾自認四十不惑前學(xué)力不足立著,但國內(nèi)科研水準日新月異,青年才俊茁然成長,以旺盛之精力分享所學(xué),誠堪嘉勉。

市面上深度學(xué)習(xí)書籍已不少,但專門針對卷積神經(jīng)網(wǎng)絡(luò)展開,側(cè)重實踐又不失論釋者尚不多見。本書基本覆蓋了卷積神經(jīng)網(wǎng)絡(luò)實踐所涉之環(huán)節(jié),作者交代的若干心得技巧亦可一觀,讀者在實踐中或有見益。望本書之出版能有助于讀者更好地了解和掌握卷積神經(jīng)網(wǎng)絡(luò),進一步促進深度學(xué)習(xí)技術(shù)之推廣。

周志華

2018 年10 月于南京

小而精,為中文讀者打造偏實用深度學(xué)習(xí)工具書

作者簡介

魏秀參

曠視科技(Face++)南京研究院負責人。南京大學(xué)LAMDA研究所博士,主要研究領(lǐng)域為計算機視覺和機器學(xué)習(xí)。在相關(guān)領(lǐng)域重要國際期刊和國際會議發(fā)表論文十余篇,并兩次獲得國際計算機視覺相關(guān)競賽冠、亞軍。曾獲CVPR 2017最佳審稿人、南京大學(xué)博士生校長特別獎學(xué)金等榮譽,擔任ICCV、CVPR、ECCV、NIPS、IJCAI、AAAI等國際會議PC member。

前言

人工智能,一個聽起來熟悉但卻始終讓人備感陌生的詞匯。讓人熟悉的是科幻作家艾薩克·阿西莫夫筆下的《機械公敵》和《機器管家》,令人陌生的卻是到底如何讓現(xiàn)有的機器人咿呀學(xué)語、邯鄲學(xué)步;讓人熟悉的是計算機科學(xué)與人工智能之父圖靈設(shè)想的“圖靈測試”,令人陌生的卻是如何使如此的高級智能在現(xiàn)實生活中不再子虛烏有;讓人熟悉的是2016 年初阿爾法狗與李世乭在圍棋上的五番對決,令人陌生的卻是阿爾法狗究竟是如何打通了“任督二脈”的……不可否認,人工智能就是人類為了滿足自身強大好奇心而腦洞大開的產(chǎn)物?,F(xiàn)在提及人工智能,就不得不提阿爾法狗,提起阿爾法狗就不得不提到深度學(xué)習(xí)。那么,深度學(xué)習(xí)究竟為何物?

本書從實用角度著重解析了深度學(xué)習(xí)中的一類神經(jīng)網(wǎng)絡(luò)模型——卷積神經(jīng)網(wǎng)絡(luò),向讀者剖析了卷積神經(jīng)網(wǎng)絡(luò)的基本部件與工作機理,更重要的是系統(tǒng)性地介紹了深度卷積神經(jīng)網(wǎng)絡(luò)在實踐應(yīng)用方面的細節(jié)配置與工程經(jīng)驗。

筆者希望本書“小而精”,避免像某些國外相關(guān)教材一樣淺嘗輒止的“大而空”。

寫作本書的主因源自筆者曾于2015 年10 月在個人主頁(http://lamda.nju.edu.cn/weixs)上開放的一個深度學(xué)習(xí)的英文學(xué)習(xí)資料“深度神經(jīng)網(wǎng)絡(luò)之必會技巧”(Must Know Tips/Tricks in Deep Neural Networks)。該資料隨后被轉(zhuǎn)帖至新浪微博,受到不少學(xué)術(shù)界和工業(yè)界朋友的好評,至今已有逾36 萬的閱讀量,后又被國際知名論壇 KDnuggets 和 Data Science Central 特邀轉(zhuǎn)載。在此期間,筆者頻繁接收到國內(nèi)外讀過此學(xué)習(xí)資料的朋友微博私信或郵件來信表示感謝,其中多人提到希望開放一個中文版本以方便國人閱讀學(xué)習(xí)。另一方面,隨著深度學(xué)習(xí)領(lǐng)域發(fā)展的日新月異,當時總結(jié)整理的學(xué)習(xí)資料現(xiàn)在看來已略顯滯后,不少最新研究成果并未涵蓋其中,同時加上國內(nèi)至今尚沒有一本側(cè)重實踐的深度學(xué)習(xí)方面的中文書籍。因此,筆者筆耕不輟,希望將自己些許的所學(xué)所知所得所感及所悟匯總于本書中,分享給大家學(xué)習(xí)和查閱。

這是一本面向中文讀者的輕量級、偏實用的深度學(xué)習(xí)工具書,本書內(nèi)容側(cè)重深度卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識和實踐應(yīng)用。為了使盡可能多的讀者通過本書對卷積神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)有所了解,筆者試圖盡可能少地使用晦澀的數(shù)學(xué)公式,而盡可能多地使用具體的圖表形象表達。本書的讀者對象為對卷積神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)感興趣的入門者,以及沒有機器學(xué)習(xí)背景但希望能快速掌握該方面知識并將其應(yīng)用于實際問題的各行從業(yè)者。為方便讀者閱讀,本書附錄給出了一些相關(guān)數(shù)學(xué)基礎(chǔ)知識簡介。

全書共有14 章,除“緒論”外可分為兩個部分:第一部分“基礎(chǔ)理論篇”包括第1~4 章,介紹卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識、基本部件、經(jīng)典結(jié)構(gòu)和模型壓縮等基礎(chǔ)理論內(nèi)容;第二部分“實踐應(yīng)用篇”包括第5~14 章,介紹深度卷積神經(jīng)網(wǎng)絡(luò)自數(shù)據(jù)準備開始,到模型參數(shù)初始化、不同網(wǎng)絡(luò)部件的選擇、網(wǎng)絡(luò)配置、網(wǎng)絡(luò)模型訓(xùn)練、不平衡數(shù)據(jù)處理,最終到模型集成等實踐應(yīng)用技巧和經(jīng)驗。另外,本書基本在每章結(jié)束均有對應(yīng)小結(jié),讀者在閱讀完每章內(nèi)容后不妨掩卷回憶,看是否完全掌握了此章重點。對卷積神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)感興趣的讀者可通讀全書,做到“理論結(jié)合實踐”;對希望迅速應(yīng)用深度卷積神經(jīng)網(wǎng)絡(luò)來解決實際問題的讀者,也可直接參考第二部分的有關(guān)內(nèi)容,做到“有的放矢”。

筆者在本書寫作過程中得到很多同學(xué)和學(xué)術(shù)界、工業(yè)界朋友的支持與幫助,在此謹列出他們的姓名以致謝意(按姓氏拼音序):高斌斌、高如如、羅建豪、屈偉洋、謝晨偉、楊世才、張晨麟等。感謝高斌斌和羅建豪幫助起草本書第3.2.4節(jié)和第4章的有關(guān)內(nèi)容。此外,特別感謝南京大學(xué)周志華教授、吳建鑫教授和澳大利亞阿德萊德大學(xué)沈春華教授等眾多師長在筆者求學(xué)科研過程中不厭其煩細致入微的指導(dǎo)、教育和關(guān)懷。同時,感謝電子工業(yè)出版社的劉皎老師為本書出版所做的努力。最后非常感謝筆者的父母,感謝他們的養(yǎng)育和一直以來的理解、體貼與照顧。寫就本書,筆者自認才疏學(xué)淺,僅略知皮毛,更兼時間和精力有限,書中錯謬之處在所難免,若蒙讀者不棄,還望不吝賜教,筆者將不勝感激!

魏秀參

先睹為快:重點章節(jié)試讀——模型集成方法

模型集成方法

集成學(xué)習(xí) (ensemble learning) 是機器學(xué)習(xí)中的一類學(xué)習(xí)算法,指訓(xùn)練多個學(xué)習(xí)器并將它們組合起來使用的方法。這類算法通常在實踐中能取得比單個學(xué)習(xí)器更好的預(yù)測結(jié)果,頗有“眾人拾柴火焰高”之意。特別是歷屆國際重量級學(xué)術(shù)競賽,如 ImageNet、KDD Cup以及許多 Kaggle 競賽的冠軍做法,或簡單或復(fù)雜但最后一步必然是集成學(xué)習(xí)。盡管深度網(wǎng)絡(luò)模型已經(jīng)擁有強大的預(yù)測能力,但集成學(xué)習(xí)方法的使用仍然能起到“錦上添花”的作用。因此有必要了解并掌握一些深度模型方面的集成方法。一般來講,深度模型的集成多從“數(shù)據(jù)層面”和“模型層面”兩方面著手。

13.1 數(shù)據(jù)層面的集成方法

13.1.1 測試階段數(shù)據(jù)擴充

本書在第5章“數(shù)據(jù)擴充”中曾提到了訓(xùn)練階段的若干數(shù)據(jù)擴充策略,實際上,這些擴充策略在模型測試階段同樣適用,諸如圖像多尺度(multi-scale)、隨機摳取(random crop)等。以隨機摳取為例,對某張測試圖像可得到 n 張隨機摳取圖像,測試階段只需用訓(xùn)練好的深度網(wǎng)絡(luò)模型對 n 張圖像分別做預(yù)測,之后將預(yù)測的各類置信度平均作為該測試圖像最終預(yù)測結(jié)果即可。

13.1.2 “簡易集成”法

“簡易集成”法 (easy ensemble) [59]是 Liu 等人提出的針對不平衡樣本問題的一種集成學(xué)習(xí)解決方案。具體來說,“簡易集成”法對于樣本較多的類別采取降采樣(undersampling),每次采樣數(shù)依照樣本數(shù)目最少的類別而定,這樣可使每類取到的樣本數(shù)保持均等。采樣結(jié)束后,針對每次采樣得到的子數(shù)據(jù)集訓(xùn)練模型,如此采樣、訓(xùn)練反復(fù)進行多次。最后對測試數(shù)據(jù)的預(yù)測則從對訓(xùn)練得到的若干個模型的結(jié)果取平均或投票獲得(有關(guān)“多模型集成方法”內(nèi)容請參見13.2.2節(jié))??偨Y(jié)來說,“簡易集成”法在模型集成的同時,還能緩解數(shù)據(jù)不平衡帶來的問題,可謂一舉兩得。

13.2 模型層面的集成方法

13.2.1 單模型集成

多層特征融合

多層特征融合 (multi-layer ensemble) 是針對單模型的一種模型層面集成方法。由于深度卷積神經(jīng)網(wǎng)絡(luò)特征具有層次性的特點(參見3.1.3節(jié)內(nèi)容),不同層特征富含的語義信息可以相互補充,在圖像語義分割[31]、細粒度圖像檢索[84]、基于視頻的表象性格分析[97]等任務(wù)中常見到多層特征融合策略的使用。一般地,在進行多層特征融合操作時可直接將不同層網(wǎng)絡(luò)特征級聯(lián)(concatenate)。而對于特征融合應(yīng)選取哪些網(wǎng)絡(luò)層,一個實踐經(jīng)驗是,最好使用靠近目標函數(shù)的幾層卷積特征,因為愈深層特征包含的高層語義性愈強,分辨能力也愈強;相反,網(wǎng)絡(luò)較淺層的特征較普適,用于特征融合很可能起不到作用,有時甚至?xí)鸬较喾醋饔谩?/p>

網(wǎng)絡(luò)“快照”集成法

我們知道,深度神經(jīng)網(wǎng)絡(luò)模型復(fù)雜的解空間中存在非常多的局部最優(yōu)解,但經(jīng)典批處理隨機梯度下降法(mini-batch SGD)只能讓網(wǎng)絡(luò)模型收斂到其中一個局部最優(yōu)解。網(wǎng)絡(luò)“快照”集成法(snapshot ensemble)[43]便利用了網(wǎng)絡(luò)解空間中的這些局部最優(yōu)解來對單個網(wǎng)絡(luò)做模型集成。通過循環(huán)調(diào)整網(wǎng)絡(luò)學(xué)習(xí)率(cyclic learning rate schedule)可使網(wǎng)絡(luò)依次收斂到不同的局部最優(yōu)解處,如圖13-1左圖所示。

具體而言,是將網(wǎng)絡(luò)學(xué)習(xí)率 η 設(shè)置為隨模型迭代輪數(shù) t(iteration,即一次批處理隨機梯度下降稱為一個迭代輪數(shù))改變的函數(shù),即:

其中,η0 為初始學(xué)習(xí)率,一般設(shè)為 0.1 或 0.2。t 為模型迭代輪數(shù)(即 mini- batch 批處理訓(xùn)練次數(shù))。T 為模型總的批處理訓(xùn)練次數(shù)。M 為學(xué)習(xí)率“循環(huán)退火”(cyclic annealing)次數(shù),其對應(yīng)了模型將收斂到的局部最優(yōu)解個數(shù)。式13.1利用余弦函數(shù) cos() 的循環(huán)性來循環(huán)更新網(wǎng)絡(luò)學(xué)習(xí)率,將學(xué)習(xí)率從 0.1 隨 t 的增長逐漸減緩到 0,之后將學(xué)習(xí)率重新放大從而跳出該局部最優(yōu)解,自此開始下一循環(huán)的訓(xùn)練,此循環(huán)結(jié)束后可收斂到新的局部最優(yōu)解處,如此循環(huán)往復(fù)......直到 M 個循環(huán)結(jié)束。因式13.1中利用余弦函數(shù)循環(huán)更新網(wǎng)絡(luò)參數(shù),所以這一過程被稱為“循環(huán)余弦退火”過程 (cyclic cosine annealing)[61]。

當經(jīng)過“循環(huán)余弦退火”對學(xué)習(xí)率調(diào)整后,每個循環(huán)結(jié)束可使模型收斂到一個不同的局部最優(yōu)解,若將收斂到不同局部最優(yōu)解的模型保存便可得到 M 個處于不同收斂狀態(tài)的模型,如圖13-1右圖中紅色曲線所示。對于每個循環(huán)結(jié)束后保存的模型,我們稱之為模型“快照” (snapshot)。測試階段在做模型集成時,由于深度網(wǎng)絡(luò)模型在初始訓(xùn)練階段未必擁有較優(yōu)性能,因此一般挑選最后 m 個模型“快照”用于集成。關(guān)于對這些模型“快照”的集成策略可采用本章后面提到的“直接平均法”。

13.2.2 多模型集成

上一節(jié)我們介紹了基于單個網(wǎng)絡(luò)如何進行模型集成,本節(jié)向大家介紹如何產(chǎn)生多個不同網(wǎng)絡(luò)訓(xùn)練結(jié)果和一些多模型的集成方法。

多模型生成策略

同一模型不同初始化。我們知道,由于神經(jīng)網(wǎng)絡(luò)訓(xùn)練機制基于隨機梯度下降法,故不同的網(wǎng)絡(luò)模型參數(shù)初始化會導(dǎo)致不同的網(wǎng)絡(luò)訓(xùn)練結(jié)果。在實際使用中,特別是針對小樣本(limited examples)學(xué)習(xí)的場景,首先對同一模型進行不同初始化,之后將得到的網(wǎng)絡(luò)模型進行結(jié)果集成會大幅緩解隨機性,提升最終任務(wù)的預(yù)測結(jié)果。

同一模型不同訓(xùn)練輪數(shù)。若網(wǎng)絡(luò)超參數(shù)設(shè)置得當,則深度模型隨著網(wǎng)絡(luò)訓(xùn)練的進行會逐步趨于收斂,但不同訓(xùn)練輪數(shù)的結(jié)果仍有不同,無法確定到底哪一輪訓(xùn)練得到的模型最適用于測試數(shù)據(jù)。針對上述問題,一種簡單的解決方式是將最后幾輪訓(xùn)練模型結(jié)果做集成,這樣一方面可降低隨機誤差,另一方面也避免了訓(xùn)練輪數(shù)過多帶來的過擬合風(fēng)險。這樣的操作被稱為“輪數(shù)集成”(epoch fusion 或 epoch ensemble)。具體使用實例可參考 ECCV 2016 舉辦的“基于視頻的表象性格分析”競賽冠軍做法[97]。

不同目標函數(shù)。目標函數(shù)(或稱損失函數(shù))是整個網(wǎng)絡(luò)訓(xùn)練的“指揮棒”,選擇不同的目標函數(shù)勢必使網(wǎng)絡(luò)學(xué)到不同的特征表示。以分類任務(wù)為例,可將“交叉熵損失函數(shù)”、“合頁損失函數(shù)”、“大間隔交叉熵損失函數(shù)”和“中心損失函數(shù)”作為目標函數(shù)分別訓(xùn)練模型。在預(yù)測階段,既可以直接對不同模型預(yù)測結(jié)果做“置信度級別”(score level)的平均或投票,也可以做“特征級別”(feature level)的模型集成:將不同網(wǎng)絡(luò)得到的深度特征抽出后級聯(lián)作為最終特征,之后離線訓(xùn)練淺層分類器(如支持向量機)完成預(yù)測任務(wù)。

不同網(wǎng)絡(luò)結(jié)構(gòu)。也是一種有效的產(chǎn)生不同網(wǎng)絡(luò)模型結(jié)果的方式。操作時可在如 VGG 網(wǎng)絡(luò)、深度殘差網(wǎng)絡(luò)等不同網(wǎng)絡(luò)架構(gòu)的網(wǎng)絡(luò)上訓(xùn)練模型,最后對從不同架構(gòu)網(wǎng)絡(luò)得到的結(jié)果做集成。

多模型集成方法

使用上一節(jié)提到的多模型生成策略或網(wǎng)絡(luò)“快照”集成法均可得到若干網(wǎng)絡(luò)訓(xùn)練結(jié)果,除特征級別直接級聯(lián)訓(xùn)練離線淺層學(xué)習(xí)器外,還可以在網(wǎng)絡(luò)預(yù)測結(jié)果級別對得到的若干網(wǎng)絡(luò)結(jié)果做集成。下面介紹四種最常用的多模型集成方法。假設(shè)共有 N 個模型待集成,對某測試樣本 x,其預(yù)測結(jié)果為 N 個 C 維向量(C 為數(shù)據(jù)的標記空間大小): s1,s2,...,sN。

直接平均法(simpleaveraging) 是最簡單有效的多模型集成方法,通過直接將不同模型產(chǎn)生的類別置信度進行平均得到最后預(yù)測結(jié)果:

加權(quán)平均法(weighted averaging) 是在直接平均法基礎(chǔ)上加入權(quán)重來調(diào)節(jié)不同模型輸出的重要程度:

其中,ωi 對應(yīng)第 i 個模型的權(quán)重,且須滿足:

在實際使用時,關(guān)于權(quán)重 ωi 的取值可根據(jù)不同模型在驗證集上各自單獨的準確率而定,高準確率的模型權(quán)重較高,低準確率模型可設(shè)置稍小權(quán)重。

投票法(voting) 中最常用的是多數(shù)表決法 (majority voting),表決前需先將各自模型返回的預(yù)測置信度 si 轉(zhuǎn)化為預(yù)測類別,即最高置信度對應(yīng)的類別標記ci ∈{1,2,...,C}作為該模型的預(yù)測結(jié)果。在多數(shù)表決法中,在得到樣本 x 的最終預(yù)測時,若某預(yù)測類別獲得一半以上模型投票,則該樣本預(yù)測結(jié)果為該類別;若對于該樣本無任何類別獲得一半以上投票,則拒絕做出預(yù)測(稱為“rejection option”)。

投票法中另一種常用方法是相對多數(shù)表決法 (plurality voting),與多數(shù)表決法會輸出“拒絕預(yù)測”不同的是,相對多數(shù)表決法一定會返回某個類別作為預(yù)測結(jié)果,因為相對多數(shù)表決是選取投票數(shù)最高的類別作為最后預(yù)測結(jié)果。

堆疊法(stacking) 又稱“二次集成法”,是一種高階的集成學(xué)習(xí)算法。在剛才的例子中,樣本 x 作為學(xué)習(xí)算法或網(wǎng)絡(luò)模型的輸入,si 作為第 i 個模型的類別置信度輸出,整個學(xué)習(xí)過程可記作一階學(xué)習(xí)過程 (first-level learning)。堆疊法則是以一階學(xué)習(xí)過程的輸出作為輸入開展二階學(xué)習(xí)過程 (second-level learning),有時也稱作“元學(xué)習(xí)” (meta learning)。拿剛才的例子來說,對于樣本 x,堆疊法的輸入是 N 個模型的預(yù)測置信度 [s1s2 . . . sN ],這些置信度可以級聯(lián)作為新的特征表示。之后基于這樣的“特征表示”訓(xùn)練學(xué)習(xí)器將其映射到樣本原本的標記空間。注意,此時的學(xué)習(xí)器可為任何學(xué)習(xí)算法習(xí)得的模型,如支持向量機 (support vector machine)、隨機森林(random forest),當然也可以是神經(jīng)網(wǎng)絡(luò)模型。不過在此需要指出的是,堆疊法有較大的過擬合風(fēng)險。

13.3 小結(jié)

深度網(wǎng)絡(luò)的模型集成往往是提升網(wǎng)絡(luò)最終預(yù)測能力的一劑“強心針”,本章從“數(shù)據(jù)層面”和“模型層面”兩個方面介紹了一些深度網(wǎng)絡(luò)模型集成的方法。

數(shù)據(jù)層面常用的方法是數(shù)據(jù)擴充和“簡易集成”法,均操作簡單但效果顯著。

模型層面的模型集成方法可分為“單模型集成”和“多模型集成”?;趩我荒P偷募煞椒山柚鷨蝹€模型的多層特征的融合和網(wǎng)絡(luò)“快照”法進行。關(guān)于多模型集成,可通過不同參數(shù)初始化、不同訓(xùn)練輪數(shù)和不同目標函數(shù)的設(shè)定產(chǎn)生多個網(wǎng)絡(luò)模型的訓(xùn)練結(jié)果。最后使用平均法、投票法和堆疊法進行結(jié)果集成。

需要指出的是,第10章提到的隨機失活 (dropout) 實際上也是一種隱式的模型集成方法。有關(guān)隨機失活的具體內(nèi)容請參考10.4節(jié)。更多關(guān)于集成學(xué)習(xí)的理論和算法請參考南京大學(xué)周志華的著作“Ensemble Methods: Foundations and Algorithms”[99]。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:周志華作序!高徒魏秀參新書《解析深度學(xué)習(xí)》試讀(評論贈書)

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    面向嵌入式部署的神經(jīng)網(wǎng)絡(luò)優(yōu)化:模型壓縮深度解析

    1.為什么需要神經(jīng)網(wǎng)絡(luò)模型壓縮? 神經(jīng)網(wǎng)絡(luò)已經(jīng)成為解決復(fù)雜機器學(xué)習(xí)問題的強大工具。然而,這種能力往往伴隨著模型規(guī)模和計算復(fù)雜度的增加。當輸入維度較大(例如長時序窗口、高分辨率特征空間)時,模型需要
    的頭像 發(fā)表于 02-24 15:37 ?4685次閱讀
    面向嵌入式部署的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>優(yōu)化:模型壓縮<b class='flag-5'>深度</b><b class='flag-5'>解析</b>

    穿孔機頂頭檢測儀 機器視覺深度學(xué)習(xí)

    頂頭狀態(tài)。 檢測頂頭算法 引入人工智深度學(xué)習(xí)技術(shù),通過Keras實現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)(CNN),用Numpy實現(xiàn)采集數(shù)據(jù)的訓(xùn)練,得到符合現(xiàn)場需求的模型,進一步提升檢測的準確性和現(xiàn)場的適應(yīng)性
    發(fā)表于 12-22 14:33

    神經(jīng)網(wǎng)絡(luò)的初步認識

    日常生活中的智能應(yīng)用都離不開深度學(xué)習(xí),而深度學(xué)習(xí)則依賴于神經(jīng)網(wǎng)絡(luò)的實現(xiàn)。什么是神經(jīng)網(wǎng)絡(luò)?
    的頭像 發(fā)表于 12-17 15:05 ?323次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的初步認識

    自動駕駛中常提的卷積神經(jīng)網(wǎng)絡(luò)是個啥?

    在自動駕駛領(lǐng)域,經(jīng)常會聽到卷積神經(jīng)網(wǎng)絡(luò)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò),簡稱為CNN,是一種專門用來處理網(wǎng)格狀數(shù)據(jù)(比如圖像)的深度
    的頭像 發(fā)表于 11-19 18:15 ?2076次閱讀
    自動駕駛中常提的<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>是個啥?

    CNN卷積神經(jīng)網(wǎng)絡(luò)設(shè)計原理及在MCU200T上仿真測試

    數(shù)的提出很大程度的解決了BP算法在優(yōu)化深層神經(jīng)網(wǎng)絡(luò)時的梯度耗散問題。當x&gt;0 時,梯度恒為1,無梯度耗散問題,收斂快;當x&lt;0 時,該層的輸出為0。 CNN
    發(fā)表于 10-29 07:49

    NMSIS神經(jīng)網(wǎng)絡(luò)庫使用介紹

    :   神經(jīng)網(wǎng)絡(luò)卷積函數(shù)   神經(jīng)網(wǎng)絡(luò)激活函數(shù)   全連接層函數(shù)   神經(jīng)網(wǎng)絡(luò)池化函數(shù)   Softmax 函數(shù)   神經(jīng)網(wǎng)絡(luò)支持功能
    發(fā)表于 10-29 06:08

    構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議

    通過實踐,本文總結(jié)了構(gòu)建CNN網(wǎng)絡(luò)模型并優(yōu)化的一般化建議,這些建議將會在構(gòu)建高準確率輕量級CNN神經(jīng)網(wǎng)絡(luò)模型方面提供幫助。 1)避免單層神經(jīng)網(wǎng)絡(luò):我們清楚
    發(fā)表于 10-28 08:02

    卷積運算分析

    的數(shù)據(jù),故設(shè)計了ConvUnit模塊實現(xiàn)單個感受域規(guī)模的卷積運算. 卷積運算:不同于數(shù)學(xué)當中提及到的卷積概念,CNN神經(jīng)網(wǎng)絡(luò)中的卷積嚴格意義
    發(fā)表于 10-28 07:31

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫數(shù)字識別。一旦模型被訓(xùn)練并保存,就可以用于對新圖像進行推理和預(yù)測。要使用生成的模型進行推理,可以按照以下步驟進行操作: 1.
    發(fā)表于 10-22 07:03

    CICC2033神經(jīng)網(wǎng)絡(luò)部署相關(guān)操作

    讀取。接下來需要使用擴展指令,完成神經(jīng)網(wǎng)絡(luò)的部署,此處僅對第一層卷積+池化的部署進行說明,其余層與之類似。 1.使用 Custom_Dtrans 指令,將權(quán)重數(shù)據(jù)、輸入數(shù)據(jù)導(dǎo)入硬件加速器內(nèi)。對于權(quán)重
    發(fā)表于 10-20 08:00

    液態(tài)神經(jīng)網(wǎng)絡(luò)(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的神經(jīng)網(wǎng)絡(luò)

    1.算法簡介液態(tài)神經(jīng)網(wǎng)絡(luò)(LiquidNeuralNetworks,LNN)是一種新型的神經(jīng)網(wǎng)絡(luò)架構(gòu),其設(shè)計理念借鑒自生物神經(jīng)系統(tǒng),特別是秀麗隱桿線蟲的神經(jīng)結(jié)構(gòu),盡管這種微生物的
    的頭像 發(fā)表于 09-28 10:03 ?1211次閱讀
    液態(tài)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(LNN):時間連續(xù)性與動態(tài)適應(yīng)性的<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    如何在機器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標檢測可定位已訓(xùn)練的目標類別,并通過矩形框(邊界框)對其進行標識。 在討論人工智能(AI)或深度學(xué)習(xí)時,經(jīng)常會出現(xiàn)“神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 09-10 17:38 ?901次閱讀
    如何在機器<b class='flag-5'>視覺</b>中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    卷積神經(jīng)網(wǎng)絡(luò)如何監(jiān)測皮帶堵料情況 #人工智能

    卷積神經(jīng)網(wǎng)絡(luò)
    jf_60804796
    發(fā)布于 :2025年07月01日 17:08:42

    神經(jīng)網(wǎng)絡(luò)專家系統(tǒng)在電機故障診斷中的應(yīng)用

    摘要:針對傳統(tǒng)專家系統(tǒng)不能進行自學(xué)習(xí)、自適應(yīng)的問題,本文提出了基于種經(jīng)網(wǎng)絡(luò)專家系統(tǒng)的并步電機故障診斷方法。本文將小波神經(jīng)網(wǎng)絡(luò)和專家系統(tǒng)相結(jié)合,充分發(fā)揮了二者故障診斷的優(yōu)點,很大程度上降低了對電機
    發(fā)表于 06-16 22:09

    基于FPGA搭建神經(jīng)網(wǎng)絡(luò)的步驟解析

    本文的目的是在一個神經(jīng)網(wǎng)絡(luò)已經(jīng)通過python或者MATLAB訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練好的模型的權(quán)重和偏置文件以TXT文件格式導(dǎo)出,然后通過python程序?qū)xt文件轉(zhuǎn)化為coe文件,(coe
    的頭像 發(fā)表于 06-03 15:51 ?1202次閱讀
    基于FPGA搭建<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的步驟<b class='flag-5'>解析</b>