91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

詳解一種簡(jiǎn)單而有效的Transformer提升技術(shù)

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:南大NLP ? 作者:NAACL2021 吳震 ? 2021-04-09 09:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

01研究背景及動(dòng)機(jī)

近些年,Transformer[1]逐漸成為了自然語(yǔ)言處理中的主流結(jié)構(gòu)。為了進(jìn)一步提升Transformer的性能,一些工作通過(guò)引入額外的結(jié)構(gòu)或知識(shí)來(lái)提升Transformer在特定任務(wù)上的表現(xiàn)。盡管如此,過(guò)參數(shù)化(over-parameterization)和過(guò)擬合(overfitting)一直是Transformer中的一個(gè)顯著問(wèn)題。作為一種正則化技術(shù),Dropout常被用來(lái)緩解模型的過(guò)擬合問(wèn)題[2]。和引入額外結(jié)構(gòu)或知識(shí)的工作相比,dropout的一個(gè)優(yōu)勢(shì)是不需要額外的計(jì)算開(kāi)銷和外部資源。因此,本文的出發(fā)點(diǎn)在于,能否通過(guò)融合不同的dropout技術(shù)來(lái)進(jìn)一步提升Transformer的性能甚至達(dá)到state-of-the-art效果?

為此,我們提出UniDrop技術(shù),從細(xì)粒度到粗粒度將三種不同層次的dropout整合到Transformer結(jié)構(gòu)中,它們分別為feature dropout、structure dropout和data dropout 。Feature dropout (FD),即傳統(tǒng)的dropout技術(shù)[2],通常應(yīng)用在網(wǎng)絡(luò)的隱層神經(jīng)元上。Structure dropout (SD)是一種較粗粒度的dropout,旨在隨機(jī)drop模型中的某些子結(jié)構(gòu)或組件。Data dropout (DD)作為一種數(shù)據(jù)增強(qiáng)方法,通常用來(lái)隨機(jī)刪除輸入sequence的某些tokens。在UniDrop中,我們從理論上分析了這三層dropout技術(shù)在Transformer正則化過(guò)程中起到了不同的作用,并在8個(gè)機(jī)器翻譯任務(wù)上和8個(gè)文本分類任務(wù)上驗(yàn)證了UniDrop的有效性。

02UniDrop

2.1Transformer結(jié)構(gòu)

UniDrop旨在提升Transformer的性能。在UniDrop中,feature dropout和structure dropout的使用與網(wǎng)絡(luò)結(jié)構(gòu)密切相關(guān)。因此,我們簡(jiǎn)單回顧Transformer的網(wǎng)絡(luò)結(jié)構(gòu)。

f27843de-98d3-11eb-8b86-12bb97331649.png

圖1:標(biāo)準(zhǔn)Transformer結(jié)構(gòu)和Feature Dropout

如圖1(a)所示,Transformer由多個(gè)相同的block堆疊而成,每個(gè)block包含兩個(gè)sub-layer,分別為multi-head self-attention layer和position-wise fully connected feed-forward layer,每個(gè)sub-layer后都使用了殘差連接和層正則(Add&Norm)。

Multi-head Attention:Multi-head attention sub-layer包含多個(gè)并行的attention head,每個(gè)head通過(guò)帶縮放的點(diǎn)乘attention將query Q和鍵值對(duì)K、V映射乘輸出,如下式所示:

f2b1ba60-98d3-11eb-8b86-12bb97331649.png

多個(gè)head的輸出最終被拼接在一起并做線性映射作為最終的multi-head attention輸出。

Position-wise Feed-Forward:這一層主要包含兩個(gè)線性映射和一個(gè)ReLU激活函數(shù):

f2beb904-98d3-11eb-8b86-12bb97331649.png

2.2Feature Dropout

如前所述,F(xiàn)eature Dropout (FD)即傳統(tǒng)的dropout技術(shù)[2],可以以一定的概率隨機(jī)抑制網(wǎng)絡(luò)中的某些神經(jīng)元。實(shí)際上,在標(biāo)準(zhǔn)的Transformer實(shí)現(xiàn)中,每個(gè)sub-layer后都默認(rèn)配置了dropout。除此之外,Transformer也在multi-head attention和feed-forward network的激活函數(shù)層添加了dropout,本文將探索它們對(duì)Transformer性能的影響:

FD-1 (attention dropout):根據(jù)公式(1),在multi-head attention中,我們可以獲得attention權(quán)重A=QKT,feature dropout FD-1被應(yīng)用在attention權(quán)重A上。

FD-2 (activation dropout):FD-2被應(yīng)用在feed-forward network sub-layer兩層線性變換間的激活函數(shù)上。

除了上面已有的feature dropout,我們?cè)陬A(yù)實(shí)驗(yàn)中發(fā)現(xiàn)Transformer仍有過(guò)擬合的風(fēng)險(xiǎn)。因此,我們額外提出兩種feature dropout添加到Transformer結(jié)構(gòu)中:

FD-3 (query, key, value dropout):FD-1直接應(yīng)用在attention權(quán)重A上,表示token i和token j之間的connection有可能被drop,一個(gè)更大的FD-1值意味著更大的概率失去sequence中一些關(guān)鍵的connection。為了緩解這種風(fēng)險(xiǎn),我們?cè)赼ttention之前的query Q、key K和value V上分別添加了dropout。

FD-4 (output dropout):我們?cè)趕oftmax分類的線性映射前也添加了dropout。具體而言,對(duì)sequence2sequence任務(wù),我們將FD-4添加到Transformer decoder中,對(duì)于文本分類任務(wù)我們將FD-4添加到Transformer encoder中。

2.3Structure Dropout

為了提升Transformer的泛化性,之前的工作已經(jīng)提出了兩種Structure Dropout (SD),分別是LayerDrop[3]和DropHead[4]。DropHead通過(guò)隨機(jī)舍棄一些attention head,從而防止multi-head attention機(jī)制被某些head主導(dǎo),最終提升multi-head attention的泛化性。相比之下,LayerDrop是一種更高級(jí)別的結(jié)構(gòu)dropout,它能隨機(jī)舍棄Transformer的某些層,從而直接降低Transformer中的模型大小。通過(guò)預(yù)實(shí)驗(yàn)分析,我們將LayerDrop添加到我們的UniDrop中。

2.4Data Dropout

Data Dropout (DD)以一定的概率p隨機(jī)刪除輸入序列中tokens。然而,直接應(yīng)用data dropout很難保留原始高質(zhì)量的樣本,對(duì)于一個(gè)長(zhǎng)度為n的sequence,我們保留住原始sequence的概率為(1-p)n,當(dāng)n較大時(shí),這個(gè)概率將會(huì)非常低。失去原始高質(zhì)量樣本對(duì)很多任務(wù)都是不利的。為了保留原始高質(zhì)量的樣本,同時(shí)又能利用data dropout進(jìn)行數(shù)據(jù)增強(qiáng),我們?cè)赨niDrop中提出了一個(gè)2-stage data dropout方案。對(duì)于給定的sequence,我們以一定的概率 pk保留原始的樣本,當(dāng)data dropout被應(yīng)用時(shí)(概率為1- pk),我們以預(yù)定的概率p來(lái)隨機(jī)刪除序列中的tokens。

2.5UniDrop整合

最終,我們將上面三種不同粒度的dropout技術(shù)集成到我們的UniDrop中,并從理論上分析了feature dropout、structure dropout、data dropout能夠正則Transformer的不同項(xiàng)并且不能相互取代,具體分析可參考論文。Figure 2是UniDrop的簡(jiǎn)單示例。

f2d2db1e-98d3-11eb-8b86-12bb97331649.png

圖2:UniDrop示例

03實(shí)驗(yàn)與分析

我們?cè)谛蛄猩桑C(jī)器翻譯)和文本分類兩個(gè)任務(wù)上來(lái)驗(yàn)證UniDrop的性能。

3.1神經(jīng)機(jī)器翻譯

我們?cè)贗WSLT14數(shù)據(jù)集上進(jìn)行了機(jī)器翻譯實(shí)驗(yàn),共4個(gè)語(yǔ)言對(duì),8個(gè)翻譯任務(wù),baseline為標(biāo)準(zhǔn)的Transformer結(jié)構(gòu),實(shí)驗(yàn)結(jié)果如表1所示:

f33983a0-98d3-11eb-8b86-12bb97331649.png

表1:不同模型在IWSLT14翻譯任務(wù)上的結(jié)果

可以看到,相比于標(biāo)準(zhǔn)的Transformer,我們的UniDrop在所有任務(wù)翻譯任務(wù)上都取得了一致且顯著的提升。為了驗(yàn)證UniDrop中每種dropout的作用,我們進(jìn)行了ablation study實(shí)驗(yàn),也在標(biāo)準(zhǔn)Transformer添加單一的dropout去驗(yàn)證它們的性能。從結(jié)果看,F(xiàn)D、SD和DD都能在一定程度上提升Transformer的性能,并能夠協(xié)同工作,最終進(jìn)一步提升Transformer的泛化性。

為了進(jìn)一步驗(yàn)證UniDrop的優(yōu)越性,我們也在廣泛被認(rèn)可的benchmarkIWSLT14 De→En翻譯任務(wù)上和其他系統(tǒng)進(jìn)行了對(duì)比。這些系統(tǒng)從不同的方面提升機(jī)器翻譯,如訓(xùn)練算法設(shè)計(jì)(Adversarial MLE)、模型結(jié)構(gòu)設(shè)計(jì)(DynamicConv)、引入外部知識(shí)(BERT-fused NMT)等。可以看到,我們的Transformer+UniDrop仍然顯著超過(guò)了其他系統(tǒng)。

f371701c-98d3-11eb-8b86-12bb97331649.png

表2:不同系統(tǒng)在IWSLT14 De→En翻譯任務(wù)上的表現(xiàn)

3.2文本分類

對(duì)于文本分類任務(wù),我們以RoBERTaBASE作為backbone,在4個(gè)GLUE數(shù)據(jù)集上和4個(gè)傳統(tǒng)的文本分類數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),結(jié)果如表3和表4所示:

f386802e-98d3-11eb-8b86-12bb97331649.png

表3:不同模型在GLUE tasks (dev set)上的準(zhǔn)確率

f39a732c-98d3-11eb-8b86-12bb97331649.png

表4:不同模型在傳統(tǒng)文本分類任務(wù)上的準(zhǔn)確率

可以看到,作為一個(gè)強(qiáng)大的預(yù)訓(xùn)練模型,RoBERTaBASE顯著超過(guò)了其他方法。即使如此,UniDrop仍然能夠進(jìn)一步提升RoBERTaBASE的性能,這進(jìn)一步驗(yàn)證了UniDrop對(duì)Transformer模型的有效性。

3.3分析

為了展現(xiàn)UniDrop能夠有效防止Transformer過(guò)擬合,我們畫(huà)出了不同模型在IWSLT14 De→En翻譯驗(yàn)證集上的loss曲線,如圖3所示:

f3b2636a-98d3-11eb-8b86-12bb97331649.png

圖3:不同模型在IWSLT14 De→En翻譯上的dev loss

可以看到,標(biāo)準(zhǔn)的Transformer結(jié)構(gòu)隨著訓(xùn)練輪數(shù)的增加,很容易出現(xiàn)過(guò)擬合現(xiàn)象。相比之下,F(xiàn)D、SD、DD都在一定程度上緩解了Transformer的過(guò)擬合問(wèn)題。在所有對(duì)比模型中,我們的UniDrop取得了最低的dev loss,并且dev loss能持續(xù)下降,直到訓(xùn)練結(jié)束。綜合來(lái)看,UniDrop在預(yù)防Transformer過(guò)擬合問(wèn)題上取得了最好的表現(xiàn)。

此外,我們也進(jìn)行了細(xì)粒度的ablation study實(shí)驗(yàn)來(lái)探究不同的feature dropout以及我們2-stage data dropout對(duì)Transformer性能的影響,結(jié)果如表5所示:

f4117ee0-98d3-11eb-8b86-12bb97331649.png

表5:Ablation Study

可以看到,F(xiàn)D-3比FD-1帶來(lái)更多的提升,這也驗(yàn)證了我們之前的分析,僅使用FD-1對(duì)提升multi-head attention的泛化性來(lái)說(shuō)是不夠的。另外,表5表明我們提出的2-stage data dropout策略對(duì)提升性能是有幫助的,這體現(xiàn)了保留原始高質(zhì)量樣本的必要性。

04總結(jié)與展望

過(guò)擬合是Transformer結(jié)構(gòu)中一個(gè)常見(jiàn)的問(wèn)題,dropout技術(shù)常被用來(lái)防止模型過(guò)擬合。本文中,我們提出了一種集成的dropout技術(shù)UniDrop,它由細(xì)粒度到粗粒度,將三種不同類型的dropout(FD、SD、DD)融合到Transformer結(jié)構(gòu)中。我們從理論上分析UniDrop中的三種dropout技術(shù)能夠從不同的方面防止Transformer過(guò)擬合,在機(jī)器翻譯和文本分類任務(wù)上的實(shí)驗(yàn)結(jié)果也體現(xiàn)了UniDrop的有效性和優(yōu)越性,更重要的,它不需要額外的計(jì)算開(kāi)銷和外部資源。更多的細(xì)節(jié)、結(jié)果以及分析請(qǐng)參考原論文。
編輯:lyn

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Dropout
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    10780
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    156

    瀏覽量

    6939
  • 自然語(yǔ)言處理
    +關(guān)注

    關(guān)注

    1

    文章

    630

    瀏覽量

    14674

原文標(biāo)題:UniDrop:一種簡(jiǎn)單而有效的Transformer提升技術(shù)

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    技術(shù)資訊 I 詳解 STEP 文件

    ,但也可用于PCB設(shè)計(jì),尤其是電子元件的機(jī)械集成。STEP文件是一種廣泛使用的中性文件格式,用于交換3D計(jì)算機(jī)輔助設(shè)計(jì)(CAD)數(shù)據(jù),可有效提升不同CAD軟件系統(tǒng)
    的頭像 發(fā)表于 02-06 16:08 ?781次閱讀
    <b class='flag-5'>技術(shù)</b>資訊 I <b class='flag-5'>一</b>文<b class='flag-5'>詳解</b> STEP 文件

    Transformer如何讓自動(dòng)駕駛大模型獲得思考能力?

    在談及自動(dòng)駕駛時(shí),Transformer直是非常關(guān)鍵的技術(shù),為何Transformer在自動(dòng)駕駛行業(yè)直被提及?
    的頭像 發(fā)表于 02-01 09:15 ?4205次閱讀

    信道活躍檢測(cè)(CAD)是一種無(wú)線喚醒技術(shù),這個(gè)功能般是定時(shí)檢測(cè)么?還是直檢測(cè)?

    信道活躍檢測(cè)(CAD)是一種無(wú)線喚醒技術(shù),這個(gè)功能般是定時(shí)檢測(cè)么?還是直檢測(cè)?
    發(fā)表于 12-10 06:53

    Transformer如何讓自動(dòng)駕駛變得更聰明?

    ]自動(dòng)駕駛中常提的Transformer本質(zhì)上是一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),最早在自然語(yǔ)言處理里火起來(lái)。與卷積神經(jīng)網(wǎng)絡(luò)(CNN)或循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)不同,Transformer能夠自動(dòng)審視所有輸入信息,并動(dòng)態(tài)判斷哪些部分更為關(guān)鍵,同時(shí)
    的頭像 發(fā)表于 11-19 18:17 ?2290次閱讀

    大尺寸玻璃晶圓(12 英寸 +)TTV 厚度均勻性提升技術(shù)

    尺寸增大,實(shí)現(xiàn) TTV 厚度均勻性的難度顯著增加。探索有效的 TTV 厚度均勻性提升技術(shù),成為保障大尺寸玻璃晶圓質(zhì)量、推動(dòng)產(chǎn)業(yè)發(fā)展的重要課題。 二、影響大尺寸玻
    的頭像 發(fā)表于 10-17 13:40 ?654次閱讀
    大尺寸玻璃晶圓(12 英寸 +)TTV 厚度均勻性<b class='flag-5'>提升技術(shù)</b>

    代理式AI提升團(tuán)隊(duì)績(jī)效的六方式

    根據(jù)凱捷(Capgemini)預(yù)測(cè),未來(lái)三年內(nèi),AI 智能體有望參與到企業(yè)的大多數(shù)業(yè)務(wù)中,而有效的人機(jī)協(xié)作預(yù)計(jì)將使人類參與高價(jià)值任務(wù)的比例提升 65%。
    的頭像 發(fā)表于 09-23 14:28 ?651次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)

    徹底改變了自然語(yǔ)義處理的研究和應(yīng)用。它引入了自注意機(jī)制和位置編碼,能夠有效的捕捉輸入序列中的關(guān)聯(lián)信息,實(shí)現(xiàn)更好的上下文理解和建模。 Transformer 模型由個(gè)編碼器和個(gè)解碼器
    發(fā)表于 09-12 17:30

    如何有效利用高光譜成像技術(shù)提升數(shù)據(jù)分析效率

    隨著人工智能和大數(shù)據(jù)技術(shù)的快速發(fā)展,高光譜成像技術(shù)作為一種融合光譜信息與空間影像的新興技術(shù),正日益成為提升數(shù)據(jù)分析效率的重要工具。在農(nóng)業(yè)監(jiān)測(cè)
    的頭像 發(fā)表于 09-11 16:13 ?841次閱讀
    如何<b class='flag-5'>有效</b>利用高光譜成像<b class='flag-5'>技術(shù)</b><b class='flag-5'>提升</b>數(shù)據(jù)分析效率

    一種高效智能的光伏電站管理平臺(tái)

    儲(chǔ)體化(集成多種儲(chǔ)能管理功能等)。用戶根據(jù)自身場(chǎng)景和需求,選擇合適光伏電站管理平臺(tái)及功能應(yīng)用配置,從而實(shí)現(xiàn)發(fā)電效率最大化、運(yùn)維成本最小化及碳中和目標(biāo)。 光伏電站管理平臺(tái)作為一種智能光伏管理系統(tǒng),通過(guò)光伏智能管理
    的頭像 發(fā)表于 07-18 09:20 ?1093次閱讀
    <b class='flag-5'>一種</b>高效智能的光伏電站管理平臺(tái)

    一種實(shí)現(xiàn)開(kāi)關(guān)柜局放監(jiān)測(cè)的有效技術(shù)架構(gòu)

    開(kāi)關(guān)柜局放在線監(jiān)測(cè)系統(tǒng)是針對(duì)開(kāi)關(guān)柜局放監(jiān)測(cè)的一種技術(shù)工具,也是保障電力系統(tǒng)安全穩(wěn)定運(yùn)行的關(guān)鍵設(shè)備,系統(tǒng)通過(guò)傳感器捕捉開(kāi)關(guān)柜內(nèi)部因局部放電產(chǎn)生的物理信號(hào)(如特高頻電磁波、超聲波、暫態(tài)地電壓),數(shù)據(jù)采集
    的頭像 發(fā)表于 06-19 13:35 ?548次閱讀
    <b class='flag-5'>一種</b>實(shí)現(xiàn)開(kāi)關(guān)柜局放監(jiān)測(cè)的<b class='flag-5'>有效</b><b class='flag-5'>技術(shù)</b>架構(gòu)

    詳解外延生長(zhǎng)技術(shù)

    隨著半導(dǎo)體器件特征尺寸不斷微縮,對(duì)高質(zhì)量薄膜材料的需求愈發(fā)迫切。外延技術(shù)作為一種在半導(dǎo)體工藝制造中常用的單晶薄膜生長(zhǎng)方法,能夠在單晶襯底上按襯底晶向生長(zhǎng)新的單晶薄膜,為提升器件性能發(fā)揮了關(guān)鍵作用。本文將對(duì)外延
    的頭像 發(fā)表于 06-16 11:44 ?2937次閱讀
    <b class='flag-5'>一</b>文<b class='flag-5'>詳解</b>外延生長(zhǎng)<b class='flag-5'>技術(shù)</b>

    交流充電樁負(fù)載能效提升技術(shù)

    隨著電動(dòng)汽車普及率提升,交流充電樁的能效優(yōu)化成為降低運(yùn)營(yíng)成本、減少能源浪費(fèi)的核心課題。負(fù)載能效提升需從硬件設(shè)計(jì)、拓?fù)鋬?yōu)化、智能控制及熱管理等多維度展開(kāi),以下結(jié)合技術(shù)原理與實(shí)踐方案進(jìn)行闡述。
    發(fā)表于 05-21 14:38

    快手上線鴻蒙應(yīng)用高性能解決方案:數(shù)據(jù)反序列化性能提升90%

    近日,快手在Gitee平臺(tái)上線了鴻蒙應(yīng)用性能優(yōu)化解決方案“QuickTransformer”,該方案針對(duì)鴻蒙應(yīng)用開(kāi)發(fā)中廣泛使用的三方庫(kù)“class-transformer”進(jìn)行了深度優(yōu)化,有效提升
    發(fā)表于 05-15 10:01

    IT運(yùn)維效率提升技

    在當(dāng)今數(shù)字化時(shí)代,網(wǎng)絡(luò)的穩(wěn)定可靠直接影響到日常工作和業(yè)務(wù)的順利開(kāi)展。而改變?nèi)粘>W(wǎng)絡(luò)維護(hù)中的幾個(gè)小事則可以為準(zhǔn)確地完成日常工作,確保網(wǎng)絡(luò)的高效運(yùn)行降低故障率提供有效的保障,尤其是針對(duì)那些需要安裝在特殊位置或者特殊環(huán)境的網(wǎng)絡(luò)設(shè)備,日常維護(hù)故障排查可能十分艱難,更應(yīng)該在建設(shè)之初確保安裝質(zhì)量,
    的頭像 發(fā)表于 04-24 16:24 ?598次閱讀
    IT運(yùn)維效率<b class='flag-5'>提升技</b>巧

    一種分段氣隙的CLLC變換器平面變壓器設(shè)計(jì)

    氣隙設(shè)計(jì)的優(yōu)點(diǎn)。 目錄1 概述2 一種分段氣隙的CLLC平面變壓器設(shè)計(jì)3 實(shí)驗(yàn)驗(yàn)證4 參考文獻(xiàn) 1 概述學(xué)者們從LLC拓?fù)湓怼⑿滦推骷?、改進(jìn)拓?fù)?、先進(jìn)調(diào)制方法、諧振參數(shù)優(yōu)化方法、磁性器件設(shè)計(jì)方法
    發(fā)表于 03-27 13:57