91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

近來優(yōu)秀的語義分割思想與解決方案

中科院長春光機所 ? 來源:中科院長春光機所 ? 2020-01-30 11:38 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

語義分割指的是將圖像中的每一個像素關(guān)聯(lián)到一個類別標簽上的過程,這些標簽可能包括一個人、一輛車、一朵花、一件家具等等。在這篇文章中,作者介紹了近來優(yōu)秀的語義分割思想與解決方案,它可以稱得上是 2019 語義分割指南了。

我們可以認為語義分割是像素級別的圖像分類。例如,在一幅有很多輛車的圖像中,分割模型將會把所有的物體(車)標記為車輛。但是,另一種被稱為實例分割的模型能夠?qū)⒊霈F(xiàn)在圖像中的獨立物體標記為獨立的實例。這種分割在被用在統(tǒng)計物體數(shù)量的應(yīng)用中是很有用的(例如,統(tǒng)計商城中的客流量)。

語義分割的一些主要應(yīng)用是自動駕駛、人機交互、機器人以及照片編輯/創(chuàng)作型工具。例如,語義分割在自動駕駛和機器人領(lǐng)域是十分關(guān)鍵的技術(shù),因為對于這些領(lǐng)域的模型來說,理解它們操作環(huán)境的上下文是非常重要的。

圖片來源: http://www.cs.toronto.edu/~tingwuwang/semantic_segmentation.pdf

接下來,我們將會回顧一些構(gòu)建語義分割模型的最先進的方法的研究論文,它們分別是:

Weakly- and Semi-Supervised Learning of a Deep Convolutional Network for Semantic Image Segmentation

Fully Convolutional Networks for Semantic Segmentation

U-Net: Convolutional Networks for Biomedical Image Segmentation

The One Hundred Layers Tiramisu: Fully Convolutional DenseNets for Semantic Segmentation

Multi-Scale Context Aggregation by Dilated Convolutions

DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs

Rethinking Atrous Convolution for Semantic Image Segmentation

Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation

FastFCN: Rethinking Dilated Convolution in the Backbone for Semantic Segmentation

Improving Semantic Segmentation via Video Propagation and Label Relaxation

Gated-SCNN: Gated Shape CNNs for Semantic Segmentation

1. Weakly- and Semi-Supervised Learning of a Deep Convolutional Network for Semantic Image Segmentation (ICCV, 2015)

這篇論文提出了一個解決方法,主要面對處理深度卷積網(wǎng)絡(luò)中的弱標簽數(shù)據(jù),以及具有良好標簽和未被合適標記得數(shù)據(jù)的結(jié)合時的挑戰(zhàn)。在這篇論文結(jié)合了深度卷積網(wǎng)絡(luò)和全連接條件隨機場。

論文地址:https://arxiv.org/pdf/1502.02734.pdf

在 PASCAL VOC 的分割基準測試中,這個模型高于 70% 的交并比(IOU)

這篇論文的主要貢獻如下:

為邊界框或圖像級別的訓(xùn)練引入 EM 算法,這可以用在弱監(jiān)督和半監(jiān)督環(huán)境中。

證明了弱標注和強標注的結(jié)合能夠提升性能。在合并了 MS-COCO 數(shù)據(jù)集和 PASCAL 數(shù)據(jù)集的標注之后,論文的作者在 PASCAL VOC 2012 上達到了 73.9% 的交并比性能。

證明了他們的方法通過合并了少量的像素級別標注和大量的邊界框標注(或者圖像級別的標注)實現(xiàn)了更好的性能。

2. Fully Convolutional Networks for Semantic Segmentation (PAMI, 2016)

這篇論文提出的模型在 PASCAL VOC 2012 數(shù)據(jù)集上實現(xiàn)了 67.2% 的平均 IoU。全連接網(wǎng)絡(luò)以任意大小的圖像為輸入,然后生成與之對應(yīng)的空間維度。在這個模型中,ILSVRC 中的分類器被丟在了全連接網(wǎng)絡(luò)中,并且使用逐像素的損失和上采樣模塊做了針對稠密預(yù)測的增強。針對分割的訓(xùn)練是通過微調(diào)來實現(xiàn)的,這個過程通過在整個網(wǎng)絡(luò)上的反向傳播完成。

論文地址:https://arxiv.org/pdf/1605.06211.pdf

3. U-Net: Convolutional Networks for Biomedical Image Segmentation (MICCAI, 2015)

在生物醫(yī)學(xué)圖像處理中,得到圖像中的每一個細胞的類別標簽是非常關(guān)鍵的。生物醫(yī)學(xué)中最大的挑戰(zhàn)就是用于訓(xùn)練的圖像是不容易獲取的,數(shù)據(jù)量也不會很大。U-Net 是非常著名的解決方案,它在全連接卷積層上構(gòu)建模型,對其做了修改使得它能夠在少量的訓(xùn)練圖像數(shù)據(jù)上運行,得到了更加精確的分割。

論文地址:https://arxiv.org/pdf/1505.04597.pdf

由于少量訓(xùn)練數(shù)據(jù)是可以獲取的,所以這個模型通過在可獲得的數(shù)據(jù)上應(yīng)用靈活的變形來使用數(shù)據(jù)增強。正如上面的圖 1 所描述的,模型的網(wǎng)絡(luò)結(jié)構(gòu)由左邊的收縮路徑和右邊的擴張路徑組成。

收縮路徑由 2 個 3X3 的卷積組成,每個卷積后面跟的都是 ReLU 激活函數(shù)和一個進行下采樣的 2X2 最大池化運算。擴張路徑階段包括一個特征通道的上采樣。后面跟的是 2X2 的轉(zhuǎn)置卷積,它能夠?qū)⑻卣魍ǖ罃?shù)目減半,同時加大特征圖。最后一層是 1X1 的卷積,用這種卷積來組成的特征向量映射到需要的類別數(shù)量上。

在這個模型中,訓(xùn)練是通過輸入的圖像、它們的分割圖以及隨機梯度下降來完成的。數(shù)據(jù)增強被用來教網(wǎng)絡(luò)學(xué)會在使用很少的訓(xùn)練數(shù)據(jù)時所必需的魯棒性和不變性。這個模型在其中的一個實驗中實現(xiàn)了 92% 的 mIoU。

4. The One Hundred Layers Tiramisu: Fully Convolutional DenseNets for Semantic Segmentation (2017)

DenseNets 背后的思想是讓每一層以一種前饋的方式與所有層相連接,能夠讓網(wǎng)絡(luò)更容易訓(xùn)練、更加準確。

模型架構(gòu)是基于包含下采樣和上采樣路徑的密集塊構(gòu)建的。下采樣路徑包含 2 個 Transitions Down (TD),而上采樣包含 2 個 Transitions Up (TU)。圓圈和箭頭代表網(wǎng)絡(luò)中的連接模式。

論文地址:https://arxiv.org/pdf/1611.09326.pdf

這篇論文的主要貢獻是:

針對語義分割用途,將 DenseNet 的結(jié)構(gòu)擴展到了全卷積網(wǎng)絡(luò)。

提出在密集網(wǎng)絡(luò)中進行上采樣路徑,這要比其他的上采樣路徑性能更好。

證明網(wǎng)絡(luò)能夠在標準的基準測試中產(chǎn)生最好的結(jié)果。

這個模型在 CamVid 數(shù)據(jù)集中實現(xiàn) 88% 的全局準確率。

5. Multi-Scale Context Aggregation by Dilated Convolutions (ICLR, 2016)

這篇論文提出了一個卷積網(wǎng)絡(luò)模塊,能夠在不損失分辨率的情況下混合多尺度的上下文信息。然后這個模塊能夠以任意的分辨率被嵌入到現(xiàn)有的結(jié)構(gòu)中,它主要基于空洞卷積。

論文地址:https://arxiv.org/abs/1511.07122

這個模塊在 Pascal VOC 2012 數(shù)據(jù)集上做了測試。結(jié)果證明,向現(xiàn)存的語義分割結(jié)構(gòu)中加入上下文模塊能夠提升準確率。

在實驗中訓(xùn)練的前端模塊在 VOC-2012 驗證集上達到了 69.8% 的平均交并比(mIoU),在測試集上達到了 71.3% 的平均交并比。這個模塊對不同對象的預(yù)測準確率如下所示:

6. DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs (TPAMI, 2017)

在這篇論文中,作者對語義分割任務(wù)中做出了下面的貢獻:

為密集預(yù)測任務(wù)使用具有上采樣的卷積

在多尺度上為分割對象進行帶洞空間金字塔池化(ASPP)

通過使用 DCNNs 提升了目標邊界的定位

論文地址:https://arxiv.org/abs/1606.00915

這篇論文提出的 DeepLab 系統(tǒng)在 PASCAL VOC-2012 圖像語義分割上實現(xiàn)了 79.7% 的平均交并比(mIoU)。

這篇論文解決了語義分割的主要挑戰(zhàn),包括:

由重復(fù)的最大池化和下采樣導(dǎo)致的特征分辨率降低

檢測多尺度目標

因為以目標為中心的分類器需要對空間變換具有不變性,因而降低了由 DCNN 的不變性導(dǎo)致的定位準確率。

帶洞卷積(Atrous convolution)有兩個用途,要么通過插入零值對濾波器進行上采樣,要么對輸入特征圖進行稀疏采樣。第二個方法需要通過等于帶洞卷積率 r 的因子來對輸入特征圖進行子采樣,然后對它進行去交錯(deinterlacing),使其變成 r^2 的低分辨率圖,每一個 r×r 區(qū)域都有一個可能遷移。在此之后,一個標準的卷積被應(yīng)用在中間的特征圖上,并將其與原始圖像分辨率進行交錯。

7. Rethinking Atrous Convolution for Semantic Image Segmentation (2017)

這篇論文解決了使用 DCNN 進行語義分割所面臨的兩個挑戰(zhàn)(之前提到過):當使用連續(xù)的池化操作時會出現(xiàn)特征分辨率的降低,以及多尺度目標的存在。

論文地址:https://arxiv.org/pdf/1706.05587.pdf

為了解決第二個問題,本文提出了帶洞卷積(atrous convolution),也被稱作 dilated convolution。我們能使用帶洞卷積增大感受野,因此能夠包含多尺度上下文,這樣就解決了第二個問題。

在沒有密集條件隨機場(DenseCRF)的情況下,論文的 DeepLabv3 版本在 PASCAL VOC 2012 測試集上實現(xiàn)了 85.7% 的性能。

8. Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation (ECCV, 2018)

這篇論文的方法「DeepLabv3+」在 PASCAL VOC 2012 數(shù)據(jù)集和 Cityscapes 數(shù)據(jù)集上分別實現(xiàn)了 89.0% 和 82.1% 的性能,而且沒有做任何后處理。這個模型在 DeepLabv3 的基礎(chǔ)上增加一個簡單的解碼模塊,從而改善了分割結(jié)果。

論文地址:https://arxiv.org/pdf/1802.02611v3.pdf

這篇論文實現(xiàn)了為語義分割使用兩種帶空間金字塔池化的神經(jīng)網(wǎng)絡(luò)。一個通過以不同的分辨率池化特征捕捉上下文信息,另一個則希望獲取明確的目標邊界。

9. FastFCN: Rethinking Dilated Convolution in the Backbone for Semantic Segmentation (2019)

這篇論文提出了一種被稱作聯(lián)合金字塔上采樣(Joint Pyramid Upsampling/JPU)的聯(lián)合上采樣模塊來代替消耗大量時間和內(nèi)存的帶洞卷積。它通過把抽取高分辨率圖的方法形式化,并構(gòu)建成一個上采樣問題來取得很好的效果。

論文地址:https://arxiv.org/pdf/1903.11816v1.pdf

此方法在 Pascal Context 數(shù)據(jù)集上實現(xiàn)了 53.13% 的 mIoU,并且具有三倍的運行速度。

該方法以全卷積網(wǎng)絡(luò)(FCN)作為主體架構(gòu),同時應(yīng)用 JPU 對低分辨率的最終特征圖進行上采樣,得到了高分辨率的特征圖。使用 JPU 代替帶洞卷積并不會造成任何性能損失。

聯(lián)合采樣使用低分辨率的目標圖像和高分辨率的指導(dǎo)圖像。然后通過遷移指導(dǎo)圖像的結(jié)構(gòu)和細節(jié)生成高分辨率的目標圖像。

10. Improving Semantic Segmentation via Video Propagation and Label Relaxation (CVPR, 2019)

這篇論文提出了基于視頻的方法來增強數(shù)據(jù)集,它通過合成新的訓(xùn)練樣本來達到這一效果,并且該方法還能提升語義分割網(wǎng)絡(luò)的準確率。本文探討了視頻預(yù)測模型預(yù)測未來幀的能力,進而繼續(xù)預(yù)測未來的標簽。

論文地址:https://arxiv.org/pdf/1812.01593v3.pdf

這篇論文證明了用合成數(shù)據(jù)訓(xùn)練語義分割網(wǎng)絡(luò)能夠帶來預(yù)測準確率的提升。論文提出的方法在 Cityscape 上達到了 8.5% 的 mIoU,在 CamVid 上達到了 82.9% 的 mIoU。

論文提出了兩種預(yù)測未來標簽的方法:

Label Propagation (標簽傳播,LP):通過將原始的未來幀與傳播來的標簽配對來創(chuàng)建新的訓(xùn)練樣本。

Joint image-label Propagation (聯(lián)合圖像標簽傳播,JP):通過配對對應(yīng)的傳播圖像與傳播標簽來創(chuàng)建新的訓(xùn)練樣本。

這篇論文有 3 個主要貢獻:利用視頻預(yù)測模型將標簽傳播到當前的鄰幀,引入聯(lián)合圖像標簽傳播(JP)來處理偏移問題,通過最大化邊界上分類的聯(lián)合概率來松弛 one-hot 標簽訓(xùn)練。

11. Gated-SCNN: Gated Shape CNNs for Semantic Segmentation (2019)

這篇論文是語義分割領(lǐng)域最新的成果(2019.07),作者提出了一個雙流 CNN 結(jié)構(gòu)。在這個結(jié)構(gòu)中,目標的形狀信息通過一個獨立的分支來處理,該形狀流僅僅處理邊界相關(guān)的信息。這是由模型的門卷控積層(GCL)和局部監(jiān)督來強制實現(xiàn)的。

論文地址:https://arxiv.org/pdf/1907.05740.pdf

在用 Cityscapes 基準測試中,這個模型的 mIoU 比 DeepLab-v3 高出 1.5%,F(xiàn)-boundary 得分比 DeepLab-v3 高 4%。在更小的目標上,該模型能夠?qū)崿F(xiàn) 7% 的 IoU 提升。下表展示了 Gated-SCNN 與其他模型的性能對比。

以上就是近來語義分割的主要進展,隨著模型和數(shù)據(jù)的進一步提升,語義分割的速度越來越快、準確率越來越高,也許以后它能應(yīng)用到各種現(xiàn)實生活場景中。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人機交互
    +關(guān)注

    關(guān)注

    12

    文章

    1288

    瀏覽量

    57955
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1096

    瀏覽量

    42344
  • 語義
    +關(guān)注

    關(guān)注

    0

    文章

    22

    瀏覽量

    8802

原文標題:9102年了,語義分割的入坑指南和最新進展都是什么樣的

文章出處:【微信號:cas-ciomp,微信公眾號:中科院長春光機所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    河南移動榮獲2025年度ICT優(yōu)秀案例人機交互卓越創(chuàng)新突破方案

    近日,由工業(yè)和信息化部新聞宣傳中心(人民郵電報社)組織的“2025 ICT優(yōu)秀案例”征集活動圓滿落幕,交互式UE LOGO解決方案,在眾多信息通信領(lǐng)域?qū)嵺`案例中脫穎而出,榮獲2025年度“ICT優(yōu)秀
    的頭像 發(fā)表于 02-26 13:57 ?335次閱讀

    兆芯聯(lián)合項目榮獲2025年度上海市優(yōu)秀密碼應(yīng)用解決方案

    近日,由上海市密碼管理局指導(dǎo)、上海市商用密碼行業(yè)協(xié)會組織開展的2025年度上海市優(yōu)秀密碼應(yīng)用解決方案評選結(jié)果正式揭曉。兆芯聯(lián)合上海科技大學(xué)、三未信安科技股份有限公司(簡稱“三未信安”)申報的《基于兆
    的頭像 發(fā)表于 01-09 17:09 ?806次閱讀

    國民技術(shù)榮獲維科杯·OFweek 2025物聯(lián)網(wǎng)行業(yè)優(yōu)秀解決方案

    200個參評項目中脫穎而出,榮獲 “優(yōu)秀解決方案獎” 。該獎項是對國民技術(shù)重構(gòu)物聯(lián)網(wǎng)安全范式、推動技術(shù)普惠的行業(yè)認可。
    的頭像 發(fā)表于 12-28 11:49 ?603次閱讀
    國民技術(shù)榮獲維科杯·OFweek 2025物聯(lián)網(wǎng)行業(yè)<b class='flag-5'>優(yōu)秀</b><b class='flag-5'>解決方案</b>獎

    歌爾股份榮獲信通院2025年度AI眼鏡創(chuàng)新場景及優(yōu)秀解決方案獎項

    近日,在2025智能移動終端高質(zhì)量發(fā)展供需對接會上,中國信通院授予歌爾“AI眼鏡創(chuàng)新場景及優(yōu)秀解決方案”獎項,獲獎案例為AI眼鏡舒適度一站式解決方案。
    的頭像 發(fā)表于 12-18 09:10 ?739次閱讀

    【NPU實戰(zhàn)】在迅為RK3588上玩轉(zhuǎn)YOLOv8:目標檢測與語義分割一站式部署指南

    【NPU實戰(zhàn)】在迅為RK3588上玩轉(zhuǎn)YOLOv8:目標檢測與語義分割一站式部署指南
    的頭像 發(fā)表于 12-12 14:30 ?6168次閱讀
    【NPU實戰(zhàn)】在迅為RK3588上玩轉(zhuǎn)YOLOv8:目標檢測與<b class='flag-5'>語義</b><b class='flag-5'>分割</b>一站式部署指南

    潤和軟件旗下潤開鴻獲評2025年度RISC-V優(yōu)秀產(chǎn)品與解決方案

    委員會(以下簡稱“RISC-V工委會”)首屆委員單位,江蘇潤和軟件股份有限公司旗下子公司江蘇潤開鴻數(shù)字科技有限公司(以下簡稱“潤開鴻”)受邀出席大會作主題演講。同時,潤開鴻基于“開源鴻蒙+星閃(RISC-V架構(gòu)芯片實現(xiàn))”的智能家居互聯(lián)互通解決方案獲評“2025年度RISC-V優(yōu)
    的頭像 發(fā)表于 12-11 11:27 ?577次閱讀
    潤和軟件旗下潤開鴻獲評2025年度RISC-V<b class='flag-5'>優(yōu)秀</b>產(chǎn)品與<b class='flag-5'>解決方案</b>

    廣東移動與華為榮獲ICT中國2025優(yōu)秀案例與解決方案一等獎

    運維優(yōu)化方案”),憑借在云業(yè)務(wù)安全防護與運維效率提升領(lǐng)域的創(chuàng)新實踐,從眾多參評項目中脫穎而出,榮獲ICT中國(2025)優(yōu)秀案例與解決方案一等獎(卓越案例獎)。
    的頭像 發(fā)表于 10-09 16:36 ?1435次閱讀

    手機板 layout 走線跨分割問題

    初學(xué)習(xí)layout時,都在說信號線不可跨分割,但是在工作中為了成本不能跨分割似乎也非絕對。 在后續(xù)工作中,跨分割的基礎(chǔ)都是相鄰層有一面完整的GND參考,跨分割發(fā)生在相鄰的另外一層。 但
    發(fā)表于 09-16 14:56

    廣和通靈核MagiCore AI解決方案榮獲2025 AIoT優(yōu)秀方案

    8月26日,第22屆elexcon深圳國際電子展暨嵌入式系統(tǒng)展盛大啟幕,全球領(lǐng)先的無線通信模組與AI解決方案提供商廣和通,憑借其創(chuàng)新的靈核MagiCore AI輕量化大模型解決方案,成功斬獲展會重磅獎項——“AIoT優(yōu)秀
    的頭像 發(fā)表于 08-29 11:09 ?1416次閱讀

    比亞迪半導(dǎo)體榮膺2025汽車行業(yè)優(yōu)秀解決方案

    近日,“維科杯·OFweek 2025汽車行業(yè)年度評選”頒獎典禮上,比亞迪半導(dǎo)體股份有限公司V-EHM高集成度多功率段混動模塊憑借優(yōu)異的產(chǎn)品性能和卓越的市場表現(xiàn),歷經(jīng)網(wǎng)絡(luò)投票、專家組評審及組委會綜合評審多輪角逐,從近300個項目中脫穎而出,榮膺“汽車行業(yè)優(yōu)秀解決方案獎”。
    的頭像 發(fā)表于 08-19 17:52 ?1918次閱讀

    Allegro斬獲2025汽車行業(yè)優(yōu)秀解決方案

    近日,在維科杯 ? OFweek 2025年度評選中,Allegro憑借其卓越的產(chǎn)品實力斬獲2025汽車行業(yè)優(yōu)秀解決方案獎。
    的頭像 發(fā)表于 08-18 09:57 ?4076次閱讀

    北京迅為itop-3588開發(fā)板NPU例程測試deeplabv3 語義分割

    北京迅為itop-3588開發(fā)板NPU例程測試deeplabv3 語義分割
    的頭像 發(fā)表于 07-22 15:51 ?1008次閱讀
    北京迅為itop-3588開發(fā)板NPU例程測試deeplabv3 <b class='flag-5'>語義</b><b class='flag-5'>分割</b>

    【正點原子STM32MP257開發(fā)板試用】基于 DeepLab 模型的圖像分割

    是谷歌團隊提出的一種用于語義分割的深度學(xué)習(xí)模型,屬于 DeepLab 系列模型的第三代版本。它在圖像語義分割任務(wù)中表現(xiàn)優(yōu)異,能夠高效地捕獲圖像的多尺度上下文信息,并生成高分辨率的
    發(fā)表于 06-21 21:11

    淺談華為Green Core系統(tǒng)級智能網(wǎng)絡(luò)云節(jié)能解決方案

    首先祝賀 “Green Core”系統(tǒng)級智能網(wǎng)絡(luò)云節(jié)能解決方案榮獲2024年度中國SDN、NFV、網(wǎng)絡(luò)AI優(yōu)秀案例“最佳應(yīng)用創(chuàng)新獎”。能否簡要介紹這一方案的核心價值?
    的頭像 發(fā)表于 05-12 14:09 ?1444次閱讀

    樹莓派發(fā)布了迄今為止最優(yōu)秀的電源解決方案!

    無論是運行樹莓派還是為筆記本電腦充電,電源質(zhì)量都至關(guān)重要。樹莓派團隊近日發(fā)布了迄今為止最優(yōu)秀的電源解決方案——售價15美元的45WUSB-C電源適配器,這款產(chǎn)品可完美勝任上述兩種使用場景。高效穩(wěn)壓
    的頭像 發(fā)表于 04-09 18:36 ?999次閱讀
    樹莓派發(fā)布了迄今為止最<b class='flag-5'>優(yōu)秀</b>的電源<b class='flag-5'>解決方案</b>!