91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

電子發(fā)燒友App

硬聲App

掃碼添加小助手

加入工程師交流群

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示
創(chuàng)作
電子發(fā)燒友網(wǎng)>電子資料下載>電子資料>PyTorch教程16.2之情感分析:使用遞歸神經(jīng)網(wǎng)絡

PyTorch教程16.2之情感分析:使用遞歸神經(jīng)網(wǎng)絡

2023-06-05 | pdf | 0.20 MB | 次下載 | 免費

資料介紹

與詞相似度和類比任務一樣,我們也可以將預訓練詞向量應用于情感分析。由于第 16.1 節(jié)中的 IMDb 評論數(shù)據(jù)集 不是很大,使用在大規(guī)模語料庫上預訓練的文本表示可能會減少模型的過度擬合。作為圖 16.2.1所示的具體示例 ,我們將使用預訓練的 GloVe 模型表示每個標記,并將這些標記表示輸入多層雙向 RNN 以獲得文本序列表示,并將其轉換為情感分析輸出 Maas,2011。對于相同的下游應用程序,我們稍后會考慮不同的架構選擇。

https://file.elecfans.com/web2/M00/A9/CD/poYBAGR9PJyAB1TZAAKGTdnYvUk151.svg

圖 16.2.1本節(jié)將預訓練的 GloVe 提供給基于 RNN 的架構進行情緒分析。

import torch
from torch import nn
from d2l import torch as d2l

batch_size = 64
train_iter, test_iter, vocab = d2l.load_data_imdb(batch_size)
from mxnet import gluon, init, np, npx
from mxnet.gluon import nn, rnn
from d2l import mxnet as d2l

npx.set_np()

batch_size = 64
train_iter, test_iter, vocab = d2l.load_data_imdb(batch_size)

16.2.1。用 RNN 表示單個文本

在文本分類任務中,例如情感分析,變長的文本序列將被轉換為固定長度的類別。在下面的BiRNN類中,雖然文本序列的每個標記都通過嵌入層 ( self.embedding) 獲得其單獨的預訓練 GloVe 表示,但整個序列由雙向 RNN ( self.encoder) 編碼。更具體地說,雙向 LSTM 在初始和最終時間步的隱藏狀態(tài)(在最后一層)被連接起來作為文本序列的表示。然后通過具有兩個輸出(“正”和“負”)的全連接層 ( self.decoder) 將該單一文本表示轉換為輸出類別。

class BiRNN(nn.Module):
  def __init__(self, vocab_size, embed_size, num_hiddens,
         num_layers, **kwargs):
    super(BiRNN, self).__init__(**kwargs)
    self.embedding = nn.Embedding(vocab_size, embed_size)
    # Set `bidirectional` to True to get a bidirectional RNN
    self.encoder = nn.LSTM(embed_size, num_hiddens, num_layers=num_layers,
                bidirectional=True)
    self.decoder = nn.Linear(4 * num_hiddens, 2)

  def forward(self, inputs):
    # The shape of `inputs` is (batch size, no. of time steps). Because
    # LSTM requires its input's first dimension to be the temporal
    # dimension, the input is transposed before obtaining token
    # representations. The output shape is (no. of time steps, batch size,
    # word vector dimension)
    embeddings = self.embedding(inputs.T)
    self.encoder.flatten_parameters()
    # Returns hidden states of the last hidden layer at different time
    # steps. The shape of `outputs` is (no. of time steps, batch size,
    # 2 * no. of hidden units)
    outputs, _ = self.encoder(embeddings)
    # Concatenate the hidden states at the initial and final time steps as
    # the input of the fully connected layer. Its shape is (batch size,
    # 4 * no. of hidden units)
    encoding = torch.cat((outputs[0], outputs[-1]), dim=1)
    outs = self.decoder(encoding)
    return outs
class BiRNN(nn.Block):
  def __init__(self, vocab_size, embed_size, num_hiddens,
         num_layers, **kwargs):
    super(BiRNN, self).__init__(**kwargs)
    self.embedding = nn.Embedding(vocab_size, embed_size)
    # Set `bidirectional` to True to get a bidirectional RNN
    self.encoder = rnn.LSTM(num_hiddens, num_layers=num_layers,
                bidirectional=True, input_size=embed_size)
    self.decoder = nn.Dense(2)

  def forward(self, inputs):
    # The shape of `inputs` is (batch size, no. of time steps). Because
    # LSTM requires its input's first dimension to be the temporal
    # dimension, the input is transposed before obtaining token
    # representations. The output shape is (no. of time steps, batch size,
    # word vector dimension)
    embeddings = self.embedding(inputs.T)
    # Returns hidden states of the last hidden layer at different time
    # steps. The shape of `outputs` is (no. of time steps, batch size,
    # 2 * no. of hidden units)
    outputs = self.encoder(embeddings)
    # Concatenate the hidden states at the initial and final time steps as
    # the input of the fully connected layer. Its shape is (batch size,
    # 4 * no. of hidden units)
    encoding = np.concatenate((outputs[0], outputs[-1]), axis=1)
    outs = self.decoder(encoding)
    return outs

讓我們構建一個具有兩個隱藏層的雙向 RNN 來表示用于情感分析的單個文本。

embed_size, num_hiddens, num_layers, devices = 100, 100, 2, d2l.try_all_gpus()
net = BiRNN(len(vocab), embed_size, num_hiddens, num_layers)

def init_weights(module):
  if type(module) == nn.Linear:
    nn.init.xavier_uniform_(module.weight)
  if type(module) == nn.LSTM:
    for param in module._flat_weights_names:
      if "weight" in param:
        nn.init.xavier_uniform_(module._parameters[param])
net.apply(init_weights);
embed_size, num_hiddens, num_layers, devices = 100, 100, 2, d2l.try_all_gpus()
net = BiRNN(len(vocab), embed_size, num_hiddens, num_layers)

net.initialize(init.Xavier(), ctx=devices)

16.2.2。加載預訓練詞向量

embed_size下面我們?yōu)樵~匯表中的標記加載預訓練的 100 維(需要與 一致)GloVe 嵌入。

glove_embedding = d2l.TokenEmbedding('glove.6b.100d')
Downloading ../data/glove.6B.100d.zip from http://d2l-data.s3-accelerate.amazonaws.com/glove.6B.100d.zip...
glove_embedding = d2l.TokenEmbedding('glove.6b.100d')

打印詞匯表中所有標記的向量形狀。

embeds = glove_embedding[vocab.idx_to_token]
embeds.shape
torch.Size([49346, 100])
embeds = glove_embedding[vocab.idx_to_token]
embeds.shape
(49346, 100)

我們使用這些預訓練的詞向量來表示評論中的標記,并且不會在訓練期間更新這些向量。

net.embedding.weight.data.copy_(embeds)
net.embedding.weight.requires_grad = False
net.embedding.weight.set_data(embeds)
net.embedding.collect_params().setattr('grad_req', 'null')

16.2.3。訓練和評估模型

現(xiàn)在我們可以訓練雙向 RNN 進行情感分析。

lr, num_epochs = 0.01, 5
trainer = torch.optim.Adam(net.parameters(), lr=lr)
loss = nn.CrossEntropyLoss(reduction="none")
d2l.train_ch13(net, train_iter, test_iter, loss, trainer, num_epochs, devices)
loss 0.311, train acc 0.872, test acc 0.850
574.5 examples/sec on [device(type='cuda', index=0), device(type='cuda', index=1)]
https://file.elecfans.com/web2/M00/A9/CD/poYBAGR9PJ6AJIk8AAECA4Wy71Y322.svg
lr, num_epochs = 0.01, 5
trainer = gluon.Trainer(net.collect_params(), 'adam', {'learning_rate': lr})
loss = gluon.loss.SoftmaxCrossEntropyLoss()
d2l.train_ch13(net, train_iter, test_iter, loss, trainer, num_epochs, devices)
loss 0.428, train acc 0.806, test acc 0.791
488.5 examples/sec on [gpu(0), gpu(1)]
https://file.elecfans.com/web2/M00/AA/48/pYYBAGR9PKGAE9v0AAEB8Qpd38M668.svg

我們定義了以下函數(shù)來使用經(jīng)過訓練的模型預測文本序列的情緒net。


神經(jīng)網(wǎng)絡 rnn pytorch
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

下載該資料的人也在下載 下載該資料的人還在閱讀
更多 >

評論

查看更多

下載排行

本周

  1. 1耗盡型MOS FET產(chǎn)品目錄選型表
  2. 0.14 MB   |  3次下載  |  免費
  3. 2PAW3311DB光學鼠標導航傳感器數(shù)據(jù)手冊
  4. 3.20 MB   |  次下載  |  2 積分
  5. 3LRC 樂山無線電InTWSApplications家電由原廠代理分銷經(jīng)銷一級代理分銷經(jīng)銷供應
  6. 85.84 KB  |  次下載  |  免費
  7. 4MOLEX莫仕連接器莫萊克斯連接器代理分銷經(jīng)銷一級代理分銷經(jīng)銷供應
  8. 784.98 KB  |  次下載  |  免費
  9. 5LAT1594_基于事件喚醒低功耗之介紹
  10. 0.37 MB   |  次下載  |  5 積分
  11. 6LAT1599_STM32G0 系列 CSS 功能及應用問題
  12. 0.43 MB   |  次下載  |  5 積分
  13. 7PT8P2308 觸控 A/D 型 8-Bit MCU規(guī)格書
  14. 4.13 MB   |  次下載  |  免費
  15. 8IP 網(wǎng)絡音頻系統(tǒng)軟件快速安裝指南
  16. 0.86 MB   |  次下載  |  免費

本月

  1. 1美的電磁爐電路原理圖資料
  2. 4.39 MB   |  19次下載  |  10 積分
  3. 2反激式開關電源設計解析
  4. 0.89 MB   |  11次下載  |  5 積分
  5. 3耗盡型MOS FET產(chǎn)品目錄選型表
  6. 0.14 MB   |  3次下載  |  免費
  7. 4簡易光伏控制器原理圖資料
  8. 0.07 MB   |  1次下載  |  5 積分
  9. 5FP7135V060-G1/FP7125替代物料pin to pin
  10. 495.40 KB  |  1次下載  |  免費
  11. 62EDL05x06xx系列 600V半橋門驅(qū)動器帶集成自舉二極管(BSD)手冊
  12. 0.69 MB   |  1次下載  |  免費
  13. 7壓力容器焊接手冊
  14. 6.47 MB   |  次下載  |  2 積分
  15. 8SFI立昌SFI-Company原廠代理分銷經(jīng)銷一級代理分銷經(jīng)銷
  16. 1.58 MB  |  次下載  |  免費

總榜

  1. 1matlab軟件下載入口
  2. 未知  |  935137次下載  |  10 積分
  3. 2開源硬件-PMP21529.1-4 開關降壓/升壓雙向直流/直流轉換器 PCB layout 設計
  4. 1.48MB  |  420064次下載  |  10 積分
  5. 3Altium DXP2002下載入口
  6. 未知  |  233095次下載  |  10 積分
  7. 4電路仿真軟件multisim 10.0免費下載
  8. 340992  |  191456次下載  |  10 積分
  9. 5十天學會AVR單片機與C語言視頻教程 下載
  10. 158M  |  183360次下載  |  10 積分
  11. 6labview8.5下載
  12. 未知  |  81605次下載  |  10 積分
  13. 7Keil工具MDK-Arm免費下載
  14. 0.02 MB  |  73831次下載  |  10 積分
  15. 8LabVIEW 8.6下載
  16. 未知  |  65991次下載  |  10 積分