91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

通過深度學(xué)習(xí)了解古代脊椎動物

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:Michelle Horton ? 2022-04-07 16:21 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

將新技術(shù)應(yīng)用于研究古代歷史,研究人員希望通過一種新的人工智能算法擴(kuò)大對恐龍的了解。這項(xiàng)研究發(fā)表在 地球科學(xué)前沿 上,使用高分辨率計(jì)算機(jī)斷層掃描( CT )成像結(jié)合深度學(xué)習(xí)模型來掃描和評估恐龍化石。這項(xiàng)研究是朝著創(chuàng)造一種新工具邁出的一步,這種工具將極大地改變古生物學(xué)家研究古代遺跡的方式。

“計(jì)算機(jī)斷層掃描以及其他成像技術(shù)已經(jīng)揭示了化石中以前隱藏的結(jié)構(gòu),但高分辨率圖像需要古生物學(xué)家花費(fèi)數(shù)周甚至數(shù)月的時(shí)間進(jìn)行后期處理,通常是從巖石基質(zhì)中分割化石。人工智能的引入不僅可以加快化石研究中的數(shù)據(jù)處理,而且還可以提高化石研究的效率?!?ut 還為更客觀、更具重現(xiàn)性的研究建立了基準(zhǔn),”主要作者、美國自然歷史博物館理查德·吉爾德研究生院博士生余聰宇說。

為了全面了解古代脊椎動物,古生物學(xué)家關(guān)注內(nèi)部解剖學(xué),如顱骨容量、內(nèi)耳或血管空間。為此,研究人員使用了一種稱為薄切片的技術(shù)。從化石上取下一小塊(薄到幾微米),在顯微鏡下檢查,并注釋他們發(fā)現(xiàn)的結(jié)構(gòu),有助于他們拼湊恐龍的形態(tài)。然而,這項(xiàng)技術(shù)對遺體具有破壞性,而且非常耗時(shí)。

計(jì)算機(jī)斷層掃描( CT )使科學(xué)家能夠在保持化石完好無損的同時(shí)觀察樣本內(nèi)部。這項(xiàng)技術(shù)實(shí)質(zhì)上是對一塊化石進(jìn)行檢查,捕捉到數(shù)千張化石的圖像。然后,軟件重建圖像并生成三維圖形,從而生成樣本的內(nèi)部快照。然后,科學(xué)家可以檢查并標(biāo)記圖形中可識別的形態(tài),以了解更多關(guān)于標(biāo)本的信息。

成像技術(shù)為科學(xué)家提供了一種工具,可以揭示隱藏的內(nèi)部結(jié)構(gòu),并推進(jìn)恐龍的 3D 模型。研究幫助研究人員估計(jì)體重,分析頭骨,甚至了解牙齒形態(tài)和牙齒替換模式。

然而,通過這種方法,科學(xué)家仍然可以手動選擇片段、檢查和標(biāo)記圖像,這不僅是時(shí)間密集型的,而且是主觀的,并且可能會引入錯(cuò)誤。此外,掃描在區(qū)分可能覆蓋化石的巖石和骨骼本身方面存在局限性,因此很難確定巖石的終點(diǎn)和化石的起點(diǎn)。

人工智能已被證明能夠在醫(yī)學(xué)領(lǐng)域快速分割圖像,從識別腦損傷到皮膚癌。研究人員發(fā)現(xiàn)了一個(gè)將類似的深度學(xué)習(xí)模型應(yīng)用于 CT 化石圖像的機(jī)會。

他們使用深層神經(jīng)網(wǎng)絡(luò)和 10000 多個(gè)對三個(gè)保存完好的原角龍胚胎頭骨的注釋 CT 掃描來測試這種新方法。這些化石于 20 世紀(jì) 90 年代從蒙古戈壁沙漠中發(fā)現(xiàn),它們來自早期有角恐龍,是較知名的三角龍的較小親屬。

該團(tuán)隊(duì)使用一個(gè)經(jīng)典的 U-net 深度神經(jīng)網(wǎng)絡(luò)來處理化石分割,教授從化石中識別巖石的算法。改進(jìn)后的 DeepLab v3 +網(wǎng)絡(luò)用于訓(xùn)練特征識別、對 CT 圖像的部分進(jìn)行分類和 3D 渲染。

在 cuDNN 加速 TensorFlow 深度學(xué)習(xí)框架上,使用 7986 張人工注釋的骨結(jié)構(gòu) CT 切片對模型進(jìn)行訓(xùn)練 NVIDIA GeForce RTX 2080 Ti GPU.

通過對 3329 個(gè)數(shù)據(jù)集的測試結(jié)果,他們發(fā)現(xiàn),雖然分割模型達(dá)到了約 97% 的高精度,但 3D 特征渲染并不像人類那樣細(xì)致或準(zhǔn)確。雖然結(jié)果表明,特征模型的表現(xiàn)不如科學(xué)家們準(zhǔn)確,但分割模型工作順利,并在創(chuàng)紀(jì)錄的時(shí)間內(nèi)完成。模型在幾秒鐘內(nèi)分割出每一片,在某些情況下,手動分割同一片需要幾分鐘甚至幾小時(shí)。這有助于古生物學(xué)家減少將化石與巖石區(qū)分開來的時(shí)間。

研究人員認(rèn)為,結(jié)合其他恐龍物種和不同沉積物類型的更大數(shù)據(jù)集有助于創(chuàng)建一個(gè)高性能的算法。

??”我們相信,戈壁沙漠化石的分割模型并不遙遠(yuǎn),但一個(gè)更通用的模型不僅需要更多的訓(xùn)練數(shù)據(jù)集,還需要算法創(chuàng)新,” Yu 在 press release 的一篇文章中說?!拔蚁嘈派疃葘W(xué)習(xí)最終能比我們更好地處理圖像,而且已經(jīng)有很多例子表明深度學(xué)習(xí)的表現(xiàn)超過人類,包括 Go playing 和 蛋白質(zhì)三維結(jié)構(gòu)預(yù)測 ?!?/p>

關(guān)于作者

Michelle Horton 是 NVIDIA 的高級開發(fā)人員通信經(jīng)理,擁有通信經(jīng)理和科學(xué)作家的背景。她在 NVIDIA 為開發(fā)者博客撰文,重點(diǎn)介紹了開發(fā)者使用 NVIDIA 技術(shù)的多種方式。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5614

    瀏覽量

    109864
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124456
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    機(jī)器學(xué)習(xí)深度學(xué)習(xí)中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見錯(cuò)誤。如果對這些錯(cuò)誤置之不理,日后可能會引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?233次閱讀
    機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見錯(cuò)誤與局限性

    穿孔機(jī)頂頭檢測儀 機(jī)器視覺深度學(xué)習(xí)

    ,能適用惡劣工況,在粉塵、高溫、氧化皮等惡劣環(huán)境中均可正常工作。 測量原理 利用頂頭與周圍的物質(zhì)(水、空氣、導(dǎo)盤等)紅外輻射能量的差異,用熱成像相機(jī)拍攝出清晰的圖片,再通過深度學(xué)習(xí)短時(shí)間內(nèi)深度優(yōu)化,判斷
    發(fā)表于 12-22 14:33

    如何深度學(xué)習(xí)機(jī)器視覺的應(yīng)用場景

    檢測應(yīng)用 微細(xì)缺陷識別:檢測肉眼難以發(fā)現(xiàn)的微小缺陷和異常 紋理分析:對材料表面紋理進(jìn)行智能分析和缺陷識別 3D表面重建:通過深度學(xué)習(xí)進(jìn)行高精度3D建模和檢測 電子行業(yè)應(yīng)用 PCB板復(fù)雜缺陷檢測:連焊、虛焊、漏焊等焊接質(zhì)量問題 芯片
    的頭像 發(fā)表于 11-27 10:19 ?240次閱讀

    影像儀AI自動尋邊技術(shù)精準(zhǔn)捕捉邊界測量,檢測效率翻倍!

    【智能制造測量】影像測量儀的AI自動尋邊技術(shù)是通過深度學(xué)習(xí)模型,實(shí)現(xiàn)對工件特征的自主識別與邊緣精準(zhǔn)提取。能解決質(zhì)檢環(huán)節(jié)中多重邊界提偏、刀紋干擾、對比度低等測量痛點(diǎn)。
    發(fā)表于 11-18 10:16

    利用 Banana Pi BPI-CM5 Pro(ARMSoM CM5 SoM) 加速保護(hù)科學(xué)

    不同的區(qū)域。因此,對鯨魚和海豚的叫聲,甚至魚類和無脊椎動物的叫聲進(jìn)行被動聲學(xué)監(jiān)測 (PAM) 可以揭示大量關(guān)于其生態(tài)環(huán)境的信息,并為研究人員提供更全面的了解。此外,通過檢測船只的噪音,可以使用相同
    發(fā)表于 10-27 09:18

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    圖 1:基于深度學(xué)習(xí)的目標(biāo)檢測可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對其進(jìn)行標(biāo)識。 在討論人工智能(AI)或深度學(xué)習(xí)時(shí),經(jīng)常會出現(xiàn)“
    的頭像 發(fā)表于 09-10 17:38 ?931次閱讀
    如何在機(jī)器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)對工業(yè)物聯(lián)網(wǎng)有哪些幫助

    深度學(xué)習(xí)作為人工智能的核心分支,通過模擬人腦神經(jīng)網(wǎng)絡(luò)的層級結(jié)構(gòu),能夠自動從海量工業(yè)數(shù)據(jù)中提取復(fù)雜特征,為工業(yè)物聯(lián)網(wǎng)(IIoT)提供了從數(shù)據(jù)感知到智能決策的全鏈路升級能力。以下從技術(shù)賦能、場景突破
    的頭像 發(fā)表于 08-20 14:56 ?1063次閱讀

    自動駕駛中Transformer大模型會取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號]近年來,隨著ChatGPT、Claude、文心一言等大語言模型在生成文本、對話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4224次閱讀
    自動駕駛中Transformer大模型會取代<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>嗎?

    行業(yè)龍頭企業(yè)家深度走訪達(dá)實(shí)智能與金蝶集團(tuán)

    此前,2025年7月19至20日,“新形勢、新決策、新未來”潤澤1000企業(yè)家(深圳)學(xué)習(xí)會在達(dá)實(shí)智能大廈隆重召開。來自全國各地約170位企業(yè)家通過深度參訪、互動課堂、圓桌訪談等形式,共同探尋企業(yè)穩(wěn)健發(fā)展的底層邏輯與實(shí)踐路徑。
    的頭像 發(fā)表于 07-28 14:17 ?947次閱讀

    當(dāng)深度學(xué)習(xí)遇上嵌入式資源困境,特征空間如何破局?

    近年來,隨著人工智能(AI)技術(shù)的迅猛發(fā)展,深度學(xué)習(xí)(Deep Learning)成為最熱門的研究領(lǐng)域之一。在語音識別、圖像識別、自然語言處理等領(lǐng)域,深度學(xué)習(xí)取得了顯著成果。從原理上看
    發(fā)表于 07-14 14:50 ?1258次閱讀
    當(dāng)<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>遇上嵌入式資源困境,特征空間如何破局?

    大模型推理顯存和計(jì)算量估計(jì)方法研究

    方法。 一、引言 大模型推理是指在已知輸入數(shù)據(jù)的情況下,通過深度學(xué)習(xí)模型進(jìn)行預(yù)測或分類的過程。然而,大模型的推理過程對顯存和計(jì)算資源的需求較高,這給實(shí)際應(yīng)用帶來了以下挑戰(zhàn): 顯存不足:大模型在推理
    發(fā)表于 07-03 19:43

    提高IT運(yùn)維效率,深度解讀京東云AIOps落地實(shí)踐(異常檢測篇)

    基于深度學(xué)習(xí)對運(yùn)維時(shí)序指標(biāo)進(jìn)行異常檢測,快速發(fā)現(xiàn)線上業(yè)務(wù)問題 時(shí)間序列的異常檢測是實(shí)際應(yīng)用中的一個(gè)關(guān)鍵問題,尤其是在 IT 行業(yè)。我們沒有采用傳統(tǒng)的基于閾值的方法來實(shí)現(xiàn)異常檢測,而是通過深度學(xué)
    的頭像 發(fā)表于 05-22 16:38 ?1051次閱讀
    提高IT運(yùn)維效率,<b class='flag-5'>深度</b>解讀京東云AIOps落地實(shí)踐(異常檢測篇)

    深度解析安森美iToF方案

    深度感知是實(shí)現(xiàn) 3D 測繪、物體識別、空間感知等高級認(rèn)知功能的基礎(chǔ)技術(shù)。對于需要精確實(shí)時(shí)處理環(huán)境與物體的形狀、位置和運(yùn)動的領(lǐng)域,這項(xiàng)技術(shù)不可或缺。通過深度感知技術(shù),可以準(zhǔn)確獲取目標(biāo)物體的位置
    的頭像 發(fā)表于 05-21 17:44 ?1350次閱讀
    <b class='flag-5'>深度</b>解析安森美iToF方案

    深度學(xué)習(xí)賦能:正面吊車載箱號識別系統(tǒng)的核心技術(shù)

    支撐。 深度學(xué)習(xí)驅(qū)動的智能識別 傳統(tǒng)OCR技術(shù)易受光線、污損或箱體圖案干擾,而新一代識別系統(tǒng)通過深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)和注意力機(jī)制,實(shí)現(xiàn)了復(fù)雜場景下的高精度動態(tài)識別: - 抗干擾優(yōu)化:系統(tǒng)可自適應(yīng)處理反光、陰影、油漆剝落等復(fù)
    的頭像 發(fā)表于 05-07 10:10 ?593次閱讀

    嵌入式AI技術(shù)之深度學(xué)習(xí):數(shù)據(jù)樣本預(yù)處理過程中使用合適的特征變換對深度學(xué)習(xí)的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器學(xué)習(xí),網(wǎng)絡(luò)的每個(gè)層都將對輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡(luò)構(gòu)成深度學(xué)習(xí)的框架,可以深度理解數(shù)據(jù)中所要表示的規(guī)律。從原理上看,使用
    的頭像 發(fā)表于 04-02 18:21 ?1545次閱讀