基于深度學習的IRS輔助MIMO通信系統(tǒng)的CSI壓縮及恢復研究
摘要: 智能反射面(IRS, Intelligent Reflecting Surface)因成本低、功耗低、可提升通信質(zhì)量等優(yōu)點被廣泛研究。在采用正交頻分復用作為多載波調(diào)制方案的IRS輔助頻分雙工多輸入多輸出(MIMO, Multiple input Multiple Output)通信系統(tǒng)中,為了提升系統(tǒng)的系統(tǒng)增益,用戶端(UE, User Equipment)需要將多個信道的信道狀態(tài)信息(CSI, Channel State Information)通過反饋鏈路發(fā)送至基站端(BS, Base Station)。因此,相比于傳統(tǒng)的MIMO系統(tǒng),該系統(tǒng)中CSI的數(shù)據(jù)量和反饋開銷無疑將會是更加巨大的。針對此問題,本文提出了一種基于注意力機制的深度殘差網(wǎng)絡(luò)IARNet (Inception-Attention-Residual-Net)來對大數(shù)據(jù)量的CSI進行壓縮重建。該網(wǎng)絡(luò)在傳統(tǒng)的Inception網(wǎng)絡(luò)結(jié)構(gòu)上結(jié)合了多卷積特征融合、混合注意力機制以及殘差等子模塊,這種混合結(jié)構(gòu)可以有效地將大數(shù)據(jù)量的CSI進行壓縮重建。仿真結(jié)果表明,與現(xiàn)有的2種深度學習網(wǎng)絡(luò)相比,IARNet在基于熱身法的模型訓練方案加持下可以顯著提高大數(shù)據(jù)量CSI的重建質(zhì)量。
1. 引言
隨著5G通信網(wǎng)絡(luò)進入商業(yè)化階段,為了獲得更快和更可靠的數(shù)據(jù)傳輸,6G通信技術(shù)已經(jīng)處于研究狀態(tài),其中智能反射面(IRS, Intelligent Reflecting Surface)技術(shù)因其成本低、易部署、功耗低、可提升通信質(zhì)量等特點被應(yīng)用到各種無線通信系統(tǒng)。IRS是一種有大量無源反射單元的表面,該表面的反射單元可以將入射信號進行被動反射,通過調(diào)整IRS的反射系數(shù)還可以進一步提高反射信號的傳輸質(zhì)量。因為IRS十分輕巧,所以人們可以輕易地將其部署在建筑外墻、廣告面板和樓頂?shù)鹊胤健T谛盘柗瓷涞倪^程中,由于IRS除了控制反射單元以外無需消耗額外能量的特點,因此IRS被業(yè)界廣泛視作為一種綠色、環(huán)保以及有前景的技術(shù)。基于上述優(yōu)點,IRS技術(shù)很好地契合了現(xiàn)階段人們對6G的愿景,即智能、融合、綠色 [1] [2] [3] [4] [5]。
深度學習是一種通過構(gòu)造深層網(wǎng)絡(luò)自動地提取出數(shù)據(jù)內(nèi)在特征和規(guī)律的人工智能技術(shù)。自從2012年Geoffrey Hinton等人使用深度學習技術(shù)并以絕對優(yōu)勢獲得了ImageNet圖像識別比賽的冠軍以來,越來越多的研究者參與對深度學習的研究并取得了巨大進展。最近研究表明,深度學習技術(shù)不僅在圖像識別領(lǐng)域有杰出表現(xiàn),而且在自然語言處理和圖像壓縮等領(lǐng)域也取得了不俗的成績 [6] - [18]。近年來有很多通信領(lǐng)域的研究者將深度學習技術(shù)應(yīng)用在了通信相關(guān)領(lǐng)域,和傳統(tǒng)的通信算法相比,深度學習在信道估計、信號檢測和CSI (CSI, Channel State Information)反饋等方向上獲取了更好的表現(xiàn)。
針對CSI反饋開銷過大的問題,文獻 [15] 首次提出了使用深度學習技術(shù)將CSI進行壓縮再重建,并提出了名為CsiNet的深度學習網(wǎng)絡(luò)。相比于傳統(tǒng)壓縮感知的方法,CsiNet有更好的重建質(zhì)量和重建速度。文獻 [16] 在CsiNet的基礎(chǔ)上引入了Inception模塊,提出了多分辨率體系結(jié)構(gòu)的網(wǎng)絡(luò):CRNet。相比于CsiNet,CRNet可以在網(wǎng)絡(luò)參數(shù)變化不大的情況下進一步提升重建的質(zhì)量。文獻 [17] 在CsiNet的基礎(chǔ)上引入了Dense Block模塊,提出了有極致殘差模塊的網(wǎng)絡(luò):DS-NLCsiNet。相比于CsiNet,DS-NLCsiNet進一步提高了重建質(zhì)量和恢復精讀。文獻 [18] 在CsiNet基礎(chǔ)上引入了量化模塊,提出了QuanCsiNet。相比于CsiNet,QuanCsiNet可以進一步壓縮反饋的CSI。此外文獻 [18] 在訓練深度學習網(wǎng)絡(luò)的時候還使用了基于真實信道的數(shù)據(jù)集,這進一步表明了基于深度學習的CSI壓縮反饋確實是有效的。
但是現(xiàn)有的網(wǎng)絡(luò)和工作都是在壓縮和重建數(shù)據(jù)量較小的CSI,數(shù)據(jù)量一般都不超過2048個32位浮點數(shù)。在IRS輔助的頻分雙工(FDD, Frequency Division Duplex)模式下的多輸入多輸出(MIMO, Multiple input Multiple Output)通信系統(tǒng)中采用正交頻分復用(OFDM, Orthogonal Frequency Division Multiplexing)作為多載波的傳輸方案。該系統(tǒng)中下行鏈路反饋的CSI不僅包括基站端(BS, Base Station)到用戶端(UE, User Equipment)的CSI,還需要包括BS到IRS的CSI以及IRS到UE的CSI,因此該系統(tǒng)的反饋開銷將會是更加巨大的,同時使用深度學習將CSI進行壓縮和重建的時候數(shù)據(jù)量也會大大增加。在本系統(tǒng)中壓縮和重建的數(shù)據(jù)量超過了一般工作研究的4倍,達8704個32位浮點數(shù)。現(xiàn)有的網(wǎng)絡(luò)在本系統(tǒng)中對數(shù)據(jù)量更大的CSI進行壓縮重建的時候會出現(xiàn)重建質(zhì)量低下的問題。因此需要針對數(shù)據(jù)量更大的CSI設(shè)計出一種新的深度學習網(wǎng)絡(luò)來將CSI壓縮和重建,以提升系統(tǒng)的重建質(zhì)量。
本文針對IRS輔助的通信系統(tǒng)中反饋開銷更加巨大的問題提出了一種新的深度學網(wǎng)絡(luò)IARNet以及基于熱身法的模型訓練方案 [7]。IARNet在傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)上采用了多卷積特征融合、混合注意力機制以及殘差等模塊。通過仿真發(fā)現(xiàn):與現(xiàn)有的深度學習網(wǎng)絡(luò)相比,IARNet在基于熱身法的模型訓練方案加持下可以顯著提高CSI重建質(zhì)量,即使是在較低壓縮比下IARNet仍能很好地將CSI恢復出來。本文的貢獻總結(jié)如下:
1) 研究了在IRS輔助下的MIMO通信系統(tǒng)的CSI壓縮及重建問題,并提出了相關(guān)系統(tǒng)模型。
2) 針對一般深度學習網(wǎng)絡(luò)在大數(shù)據(jù)量CSI壓縮重建過程中出現(xiàn)重建質(zhì)量低下的問題,本文在傳統(tǒng)卷積網(wǎng)絡(luò)的基礎(chǔ)上加入了多卷積特征融合、混合注意力機制以及殘差等模塊,提出了深度學習網(wǎng)絡(luò)IARNet,實驗表明,在基于熱身法的模型訓練方案加持下可以顯著提高CSI重建質(zhì)量。
3) 進一步研究了基于熱身法的學習率調(diào)整策略與三種傳統(tǒng)的學習率調(diào)整策略在1/8壓縮比下對網(wǎng)絡(luò)的性能影響,實驗表明:相比于傳統(tǒng)方法基于熱身法的學習率調(diào)整策略可以進一步提高CSI的重建質(zhì)量,重建質(zhì)量至少提升24.9%。
2. 系統(tǒng)模型
本文研究IRS輔助下的MIMO FDD通信系統(tǒng),它采用OFDM作為多載波的傳輸方案,系統(tǒng)模型如圖1所示。
在該系統(tǒng)中,配置有 NiNi 個反射單元的IRS輔助有 NtNt 根天線的BS與有 NrNr 根天線的UE進行通信,而OFDM的子載波數(shù)量則設(shè)置為 NcNc。那么UE處第 mm 根天線在第 cc 個子載波接收到的信號 ym,cym,c 可以表達為:
Figure 1. A IRS-assisted MIMO FDD communication system model
圖1. IRS輔助下的MIMO FDD通信系統(tǒng)模型
BS需要設(shè)計合理的預編碼向量 vcvc 才能消除用戶間干擾進而提升通信質(zhì)量。然而在FDD模式下,BS需要獲得精確的下行鏈路CSI才能對路預編碼向量進行合理設(shè)計。在該系統(tǒng)中,完整維度的下行鏈路的CSI H′H′ 包括BS到UE信道的CSI H1∈CNt×Ni×NcH1∈CNt×Ni×Nc 、BS到IRS信道的CSI H2∈CNi×Nr×NcH2∈CNi×Nr×Nc 、IRS到UE信道的CSI H3∈CNt×Nr×NcH3∈CNt×Nr×Nc,即 H′=[H1,H2,H3]H′=[H1,H2,H3]。完整的CSI數(shù)據(jù)如圖2所示。
Figure 2. Schematic of the complete CSI data
圖2. 完整的CSI數(shù)據(jù)示意圖
因為時延擴展的有限性,CSI中會有大量的0值,所以放入IARNet的CSI矩陣可以將CSI截斷并只保留前 N?cN?c 行的有效數(shù)據(jù),階段后的CSI可以表示為
本文主要研究深度學習在IRS輔助下通信系統(tǒng)CSI壓縮與恢復,因此假設(shè)UE已經(jīng)獲得了反饋的所有CSI,即忽略信道估計誤差,同時假設(shè)BS也能完整地接收到UE反饋的所有信息。
本系統(tǒng)在UE和BS分別設(shè)置了編碼器和譯碼器,UE處的編碼器可以將原始的 JJ 維的CSI HH 壓縮成 KK 維向量 cc,壓縮比可以表示為: η=K/Jη=K/J,其中 (K
式中: H?H^ 表示重建后的CSI矩陣; fdefde 表示譯碼器; ΘdeΘde 表示譯碼器的深度學習網(wǎng)絡(luò)參數(shù)。
為了評估本系統(tǒng)的重建質(zhì)量,本系統(tǒng)使用歸一化均方誤差(NMSE, Normalized Mean Squared Error)作為判斷標準,NMSE可以評估原始CSI與重建后的CSI之間的誤差,這個值越小表示系統(tǒng)重建質(zhì)量越佳,因此本文主要的目標是通過優(yōu)化系統(tǒng)模型最小化該值。其中NMSE定義為:
式中: ∥?∥2‖?‖2 表示L2范數(shù)。
3. IARNet的結(jié)構(gòu)
本文所提出的IARNet深度學習網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,其由UE處的編碼器和BS處的解碼器構(gòu)成。IARNet的輸入是信道CSI HH, HH 的具體尺寸為 128×16×6128×16×6,其中128表示角度,16表示截斷后的子載波數(shù),6表示三個CSI的虛數(shù)和實數(shù)。IARNet的輸出是重建后的CSI H?H^,尺寸和 HH 一致。
Figure 3. Architecture of IARNet
圖3. IARNet的架構(gòu)
在編碼器側(cè)。模型首先將 HH 放入混合注意力模塊進行特征提取。該模塊同時提取了CSI在空間和通道上的數(shù)據(jù),經(jīng)過該模塊后深度學習網(wǎng)絡(luò)可以更專注于信息量大的數(shù)據(jù),提升數(shù)據(jù)權(quán)重,反之降低信息量小的數(shù)據(jù)權(quán)重,加強了特征表達能力。然后,將數(shù)據(jù)放入編碼器復合模塊處理。該模塊主要是借鑒了Inception網(wǎng)絡(luò)的思想,將多個尺寸卷積后的結(jié)果直接進行拼接處理,這可以讓拼接后的結(jié)果具有多維度特征信息的特點。此外該模塊還引入了分組卷積的處理方法以降低訓練參數(shù)。接著再利用混合注意力模塊進行特征提取,進一步加強了特征表達能力。接著,將數(shù)據(jù)Reshape成長度為 128×16×6=12288128×16×6=12288 的一維向量并將其輸入到神經(jīng)元數(shù)量為 8704×η8704×η 的全連接層神經(jīng)網(wǎng)絡(luò)中進行壓縮,其中8704表示 HH 的有效數(shù)據(jù),為了對齊6個通道的尺寸, H′3H′3 需要補0處理,具體見第五章仿真部分。最后,通過反饋鏈路將壓縮后的數(shù)據(jù)發(fā)送給BS端的解碼器。
在解碼器側(cè)。模型首先將長度為 8704×η8704×η 的一維向量Reshape成 HH 尺寸大小的矩陣。然后,用解碼器復合模塊將數(shù)據(jù)進行處理。該模塊與編碼器復合模塊類似,但是更輕量化。其中該模塊引入了比例殘差的設(shè)計,相比一般的殘差網(wǎng)絡(luò),網(wǎng)絡(luò)性能更佳。最后,解碼器輸出重建后的CSI矩陣 H?H^。
混合注意力模塊主要由通道注意力模塊和空間注意力模塊兩部分組成。通道注意力模塊中,首先通過兩種并行的平面平均池化和平面最大池化的處理,接著再將它們分別送入MLP神經(jīng)網(wǎng)絡(luò)之中,最后通過Sigmoid函數(shù)輸出結(jié)果。通過通道注意力模塊處理讓模型關(guān)注到通道之間的關(guān)系并自動學習到不同通道特征的重要程度??臻g注意力模塊中,將通道注意力模塊輸出的數(shù)據(jù)作為輸入,首先通過兩個并行的通道平均池化和通道最大池化處理并將兩個處理結(jié)果進行通道拼接,然后通過卷積操作將通道降為一維,最后進行Sigmoid激活函數(shù)處和殘差處理。通過通道注意力模塊處理,模型會關(guān)注到同一通道上不同數(shù)據(jù)位置的關(guān)系并自動學習到不同空間特征的重要程度?;旌献⒁饬δK的結(jié)構(gòu)如圖4所示。混合注意力模塊的輸入為 128×16×6128×16×6 的特征,其中6表示為輸入特征通道數(shù);16表示特征的高度即子載波數(shù);128表示特征的寬度即角度; 1×61×6 表示MLP神經(jīng)網(wǎng)絡(luò)的神經(jīng)元個數(shù); ?? 表示矩陣乘法; ⊕⊕ 表示矩陣加法;
混合注意力模塊同時關(guān)注到了通道信息和空間信息的重要關(guān)系,增大了有效通道和空間的權(quán)重,減少了無效通道和空間的權(quán)重,進而提升了網(wǎng)絡(luò)性能。同時混合注意力模塊還可以很輕易地集成到現(xiàn)有的深度學習網(wǎng)絡(luò)架構(gòu)上去,輸入與輸出的特征尺寸完全一致,這讓網(wǎng)絡(luò)的配置更加簡單和便捷。
Figure 4. Architecture of hybrid attention module
圖4. 混合注意力模塊的架構(gòu)
復合網(wǎng)絡(luò)模塊的結(jié)構(gòu)
編碼器復合模塊及解碼器復合模塊如圖5所示,其中每個方框附近的小數(shù)字表示此步的通道數(shù)(卷積核個數(shù)),在數(shù)據(jù)處理的過程中CSI的長寬不變,即保持為 128×16128×16 尺寸的數(shù)據(jù),通道數(shù)隨著卷積核變化。
文獻 [15] 中已經(jīng)證明基于 3×33×3 卷積和殘差網(wǎng)絡(luò)的CsiNet在信道壓縮中的應(yīng)用是有效的。但CsiNet是一種固定卷積尺寸的網(wǎng)絡(luò),固定尺寸卷積處理下的網(wǎng)絡(luò)并不能很好地同時提取稀疏矩陣和密集矩陣的特征。如果想較好地同時提取稀疏矩陣和密集矩陣的特征,就需要考慮同時用不同尺寸卷積處理CSI。小尺寸的卷積處理(如 3×33×3 卷積)可以提取CSI更加精細的特征,在處理密集CSI的時候小尺寸的卷積有更好的效果。大尺寸的卷積處理(如 9×99×9 卷積)可以提供更大的感受視野,在處理稀疏CSI的時候這種卷積有更好的效果。因此在編碼器復合模塊和解碼器復合模塊中大量使用了多支路并行的多尺寸卷積處理,然后將不同支路上的結(jié)果在通道上直接拼接起來,這樣可以將不同尺寸卷積處理下的結(jié)果進行多卷積特征融合,讓輸出擁有更加豐富的特征。特別是在編碼器復合模塊中,為了更好提取原始CSI的特征,編碼器復合模塊在中同時使用了 3×33×3 卷積、 5×55×5 卷積、 7×77×7 卷積和殘差的并行處理,這將極大地豐富了輸出特征。此外,每個卷積模塊進行卷積處理前都進行了一次批歸一化處理。
Figure 5. Composite module of encoder (left) and decoder (right)
圖5. 編碼器復合模塊(左)及解碼器復合模塊(右)
為減少復合網(wǎng)絡(luò)模塊中的參數(shù)數(shù)量和運算復雜度,模型還引入了分組卷積的處理方法。在分組卷積中通過以下步驟來分解 M×MM×M 卷積。首先,設(shè)置組數(shù) gg 并將原來的特征通道數(shù)平均分解成 gg 組,每個小組的特征通道數(shù)為原來的 1/g1/g,每一個小組的卷積核個數(shù)也為原來的 1/g1/g,保持長寬不變。然后,每個小組進行 M×MM×M 的卷積計算。最后,將每個小組的結(jié)果進行通道拼接,最終輸出的特征尺寸不變。而且由于將標準的 M×MM×M 卷積拆分成了更小規(guī)模的子運算,這可以大幅度降低運算復雜度,減少設(shè)備的運行要求。
此外,為了解決梯度消失的問題,提高系統(tǒng)的性能,復合網(wǎng)絡(luò)模塊還加入了大量的殘差網(wǎng)絡(luò)。特別是在解碼器復合模塊的末端還利用了比例殘差的網(wǎng)絡(luò),即將主干的輸出乘以一個小于1的系數(shù)(本網(wǎng)絡(luò)采用0.7),調(diào)整主干的輸出比例。經(jīng)此設(shè)計,IARNet的性能有進一步的提升。
4. 學習率及其調(diào)整策略
在深度學習模型的訓練過程中,模型訓練方案對模型的最終呈現(xiàn)效果有著決定性的影響。在一些基于深度學習的信道壓縮反饋研究中,其模型訓練方案是相對簡要的,沒有針對特定的系統(tǒng)模型進一步優(yōu)化模型訓練方案。如在CsiNet和DS-NLCsiNet的文章中,模型的batch size、epochs和初始學習率分別直接設(shè)置為200、1000和0.001,也沒有設(shè)置學習率調(diào)整策略。這些文章都省略了對模型訓練方案的介紹,特別是學習率及其調(diào)整策略上,而這恰恰是十分重要的。
如果學習率設(shè)置過高,雖然系統(tǒng)訓練會加快,但是在采用梯度下降算法來尋找全局最優(yōu)解的過程中,損失函數(shù)將不會收斂至全局最小值附近。如果學習率設(shè)置過小,雖然網(wǎng)絡(luò)可以尋找到全局最優(yōu)解,但是這會花費大量的訓練時間并且很容易陷入局部最優(yōu)解。另外學習率調(diào)整策略對系統(tǒng)訓練也有很大的影響,一般采用的策略有固定法、步衰減法(Step Decay)法以及余弦衰減法(Cosine Decay)等。固定法需要多次試驗才能找到較好的學習率,而且網(wǎng)絡(luò)也很容易陷入局部最優(yōu)解。衰減類的方法可以在較高的學習率上加速網(wǎng)絡(luò)訓練,然后在低學習率上尋找到全局最優(yōu)解 [19]。在IARNet的模型訓練方案上采用基于熱身法的余弦衰減學習率調(diào)整策略。由于深度學習網(wǎng)絡(luò)在剛開始訓練的時候非常不穩(wěn)定,所以我們需要將初始的學習率設(shè)置得很低,這可以讓深度學習網(wǎng)絡(luò)緩慢地趨向于穩(wěn)定。當網(wǎng)絡(luò)趨于穩(wěn)定的時候再升高學習率,這可以讓網(wǎng)絡(luò)可以快速地收斂,這個過程就稱之為熱身,熱身完之后將采用余弦衰減的方法減少學習率。這樣就可以讓整個訓練過程變得平穩(wěn)、快速,同時也提高了網(wǎng)絡(luò)性能。本方案的學習率調(diào)整策略可以表達為:
Figure 6. Learning rate adjustment strategy of cosine decay based on the warm-up method
圖6. 基于熱身法的余弦衰減學習率調(diào)整策略
5. 仿真結(jié)果
仿真過程中BS的天線數(shù)設(shè)置為4,IRS的反射單元數(shù)設(shè)置為32,UE的天線數(shù)設(shè)置為4,子載波數(shù)設(shè)置為128。仿真采用COST 2100信道模型 [20] 在中心頻率為5.3GHz的頻帶的室內(nèi)場景下生成數(shù)據(jù)集。其中BS到IRS之間信道用發(fā)射天線數(shù)為4、接收天線為32的信道替代,IRS到UE之間信道用發(fā)射天線數(shù)為32、接收天線為4的信道模型替代。然后將BS到IRS、IRS到UE以及BS到UE的CSI在通道上拼接起來。因為時延擴展的有限性,CSI中會有大量的0值,所以將CSI截斷并只保留前16行的有效數(shù)據(jù)。然后將截斷后CSI中的6個通道的特征尺寸補齊,即BS到UE的CSI由 16×1616×16 用0值擴展至 128×16128×16。6個通道保持 128×16128×16 的尺寸,其中有效數(shù)據(jù)為8704,其余數(shù)據(jù)為對齊CSI補的0值,壓縮比是按照有效數(shù)據(jù)8704與壓縮后的數(shù)據(jù)量計算。補齊后CSI的尺寸為: 128×16×6128×16×6。其中128表示為角度;16為子載波;6分別為BS到IRS的CSI、IRS到UE的CSI以及BS到UE的CSI的虛數(shù)和實數(shù)。
使用COST 2100模型生成10萬個數(shù)據(jù)集,然后按照4:1的比例將數(shù)據(jù)集分成訓練集和測試集。模型訓練時,采用均方誤差(MSE, Mean Squared Error)作為系統(tǒng)的損失函數(shù),使用Adam算法 [21] 更新參數(shù)。batch size設(shè)置為150,epoch設(shè)置為100,初始學習率設(shè)置為0.0045并使用基于熱身法的模型訓練方法, epoch′epoch′ 設(shè)置為20。
本文比較了IARNet與CRNet與CsiNet在不同壓縮比下的性能表現(xiàn),結(jié)果如表1所示,加粗表示為該壓縮比下的最佳性能表現(xiàn)。仿真結(jié)果表明,IARNet在大數(shù)據(jù)量CSI壓縮場景下對比其他基于深度學習的CSI重建算法有更好的性能表現(xiàn),即使是在1/32的壓縮比下IARNet仍能將CSI較好地重建起來,這主要得益于IARNet采用了多卷積特征融合、混合注意力機制以及比例殘差等方法并進行了聯(lián)合優(yōu)化,在優(yōu)化過程中盡量避免了不必要的計算開銷,這讓網(wǎng)絡(luò)保持性能的同時也更輕量化。
| 壓縮比 | 深度學習網(wǎng)絡(luò) | NMSE |
| 1/2 |
CsiNet CRNet IARNet |
1.0889 0.5529 0.0273 |
| 1/4 |
CsiNet CRNet IARNet |
1.0894 0.5537 0.0281 |
| 1/8 |
CsiNet CRNet IARNet |
1.0902 0.5625 0.0680 |
| 1/16 |
CsiNet CRNet IARNet |
1.0910 0.6172 0.1740 |
| 1/32 |
CsiNet CRNet IARNet |
1.0919 0.6578 0.3841 |
| 1/64 |
CsiNet CRNet IARNet |
1.2300 0.8266 0.6076 |
Table 1. Comparison of NMSE performance of IARNet with CRNet and CsiNet
表1. IARNet與CRNet和CsiNet算法的NMSE性能比較
圖7是IARNet、CRNet和CsiNet在壓縮比為1/8下系統(tǒng)的NMSE隨著epoch變化的曲線。由圖7所示,在訓練過程中,CsiNet的NMSE始終保持較高的水平,NMSE從最初的25.112收斂至1.0902,這表明數(shù)據(jù)集超出了系統(tǒng)的學習能力,CsiNet無法學習和重建大數(shù)據(jù)量的CSI。CRNet的NMSE從最初的3.11可以收斂至0.5625,但是33個epoch后系統(tǒng)的NMSE基本不變,這表明CRNet可以學習和重建部分CSI的數(shù)據(jù),但是重建質(zhì)量不佳。IARNet的NMSE從最初的0.9912可以收斂至0.0680,NMSE曲線在整個訓練過程中都趨于下降,在90個epoch后逐漸平穩(wěn),這表明IARNet可以很好地學習和重建大部分的CSI數(shù)據(jù),重建質(zhì)量佳。
Figure 7. NMSE variation curves of three networks at 1/8 compression ratio during the training process
圖7. 訓練過程中三種網(wǎng)絡(luò)在1/8壓縮比下的NMSE變化曲線
圖8是IARNet在壓縮比為1/8下系統(tǒng)的測試集損失函數(shù)和訓練集的損失函數(shù)隨著epoch變化的曲線。由圖7可見,測試集損失函數(shù)和訓練集的損失函數(shù)隨著epoch增加而逐漸減少,測試集損失函數(shù)在訓練集損失函數(shù)附近波動。訓練結(jié)束后,訓練集的損失函數(shù)可以收斂至0.03附近,訓練集的損失函數(shù)可以收斂至0.05附近,這說明IARNet有輕微的過擬合,但是整體上可以忽略不計。
Figure 8. Comparison of the loss functions of the training and test sets
圖8. 訓練集和測試集的損失函數(shù)對比
此外本文還比較了四種學習率調(diào)整策略配合其最佳初始學習率在壓縮比為1/8情況下對IARNet性能的影響。第一種是本方案采用基于熱身法的余弦衰減方案,最佳初始學習率為0.0045。第二種方案是固定法,最佳初始學習率為:0.0002。第三種方案是步衰減法,最佳初始學習率為:0.001。第四種方案是余弦衰減法,最佳初始學習率為0.0003。NMSE隨著訓練過程推進的仿真變化曲線如圖9所示。由圖9仿真結(jié)果表明,相比于傳統(tǒng)的學習率調(diào)整策略,本方案采用的方法可以讓系統(tǒng)有更好的重建性能,NMSE收斂至更低的水平,可達0.0683。而固定法、步衰減法和余弦衰減法訓練后的系統(tǒng)分別收斂至0.1572、0.0903和0.1822。相比傳統(tǒng)的方法基于熱身法學習率調(diào)整策略的重建質(zhì)量至少提升24.9%。
Figure 9. NMSE variation curves of four learning rate adjustment strategies during training
圖9. 訓練過程中四種學習率調(diào)整策略的NMSE變化曲線
另外表2比較了IARNet與CRNet和CsiNet在不同壓縮比下的參數(shù)量,M表示百萬。IARNet除了在1/64壓縮比下參數(shù)量高于CRNet和CsiNe以外,其他壓縮比下的參數(shù)量均小于IARNet和CRNet,因此IARNet可以較易地被部署在各類設(shè)備里面,節(jié)省設(shè)備存儲空間。
| ? | 壓縮比 | 1/2 | 1/4 | 1/8 | 1/16 | 1/32 | 1/64 |
| 參數(shù)量 | CsiNet | 67.22M | 33.63M | 16.82M | 16.82M | 4.26M | 2.21M |
| CRNet | 67.13M | 33.57M | 16.79M | 16.79M | 4.21M | 2.11M | |
| IARNet | 40.95M | 24.17M | 15.78M | 15.78M | 3.91M | 2.86M |
Table 2. Comparison of the number of parameters of IARNet with CRNet and CsiNet at different compression ratios
表2. IARNet與CRNet和CsiNet在不同壓縮比下的參數(shù)量比較
6. 結(jié)論
本文針對IRS輔助的通信系統(tǒng)中反饋開銷更加巨大的問題提出了一種新的深度學網(wǎng)絡(luò)IARNet。該網(wǎng)絡(luò)在傳統(tǒng)的Inception網(wǎng)絡(luò)結(jié)構(gòu)上結(jié)合了多卷積特征融合、混合注意力機制以及殘差等子模塊,這種混合結(jié)構(gòu)可以有效地將大數(shù)據(jù)量的CSI進行壓縮重建。計算機仿真結(jié)果顯示IARNet在IRS通信系統(tǒng)中對大數(shù)據(jù)量的CSI進行壓縮重建有更好的表現(xiàn),并且基于熱身法的模型訓練方案優(yōu)于傳統(tǒng)的固定法和衰減類法。
審核編輯:湯梓紅
電子發(fā)燒友App











































評論