91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一文看懂NLP里的模型框架 Encoder-Decoder和Seq2Seq

電子設(shè)計 ? 來源:電子設(shè)計 ? 作者:電子設(shè)計 ? 2020-12-10 22:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Encoder-Decoder 和 Seq2Seq

機(jī)器翻譯、對話機(jī)器人、詩詞生成、代碼補(bǔ)全、文章摘要(文本 - 文本)

「文本 - 文本」 是最典型的應(yīng)用,其輸入序列和輸出序列的長度可能會有較大的差異。

Google 發(fā)表的用Seq2Seq做機(jī)器翻譯的論文《Sequence to Sequence Learning with Neural Networks》

語音識別音頻 - 文本)

語音識別也有很強(qiáng)的序列特征,比較適合 Encoder-Decoder 模型。

Google 發(fā)表的使用Seq2Seq做語音識別的論文《A Comparison of Sequence-to-Sequence Models for Speech Recognition》

圖像描述生成(圖片 - 文本)

通俗的講就是「看圖說話」,機(jī)器提取圖片特征,然后用文字表達(dá)出來。這個應(yīng)用是計算機(jī)視覺和 NLP 的結(jié)合。

圖像描述生成的論文《Sequence to Sequence – Video to Text》

Encoder-Decoder 的缺陷

上文提到:Encoder(編碼器)和 Decoder(解碼器)之間只有一個「向量 c」來傳遞信息,且 c 的長度固定。

為了便于理解,我們類比為「壓縮-解壓」的過程:

將一張 800X800 像素的圖片壓縮成 100KB,看上去還比較清晰。再將一張 3000X3000 像素的圖片也壓縮到 100KB,看上去就模糊了。

Encoder-Decoder 就是類似的問題:當(dāng)輸入信息太長時,會丟失掉一些信息。

Attention 解決信息丟失問題

Attention 機(jī)制就是為了解決「信息過長,信息丟失」的問題。

Attention 模型的特點是 Eecoder 不再將整個輸入序列編碼為固定長度的「中間向量 C」 ,而是編碼成一個向量的序列。

這樣,在產(chǎn)生每一個輸出的時候,都能夠做到充分利用輸入序列攜帶的信息。而且這種方法在翻譯任務(wù)中取得了非常不錯的成果。

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50115

    瀏覽量

    265588
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23283
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    模型服務(wù)為什么總是爆顯存

    模型服務(wù)報 CUDA out of memory,很多現(xiàn)場第反應(yīng)都是“模型太大,換更大的卡”。這個結(jié)論通常過于粗糙。生產(chǎn)的顯存問題至少有五類來源:
    的頭像 發(fā)表于 03-11 09:54 ?234次閱讀

    百度心大模型5.0正式版上線

    今天,在百度心Moment大會現(xiàn)場,心大模型5.0正式版上線。
    的頭像 發(fā)表于 01-23 16:48 ?1321次閱讀

    百度心大模型5.0 Preview榮登LMArena文本榜國內(nèi)第

    12月23日,LMArena大模型競技場發(fā)布最新排名,心新模型ERNIE-5.0-Preview-1203以1451分登上LMArena文本榜,排名國內(nèi)第
    的頭像 發(fā)表于 12-23 15:02 ?566次閱讀

    看懂AI大模型的并行訓(xùn)練方式(DP、PP、TP、EP)

    才能有效縮短計算時間。搭建并行計算框架,般會用到以下幾種常見的并行方式:DataParallelism,數(shù)據(jù)并行PipelineParallelism,流水線并行
    的頭像 發(fā)表于 11-28 08:33 ?1873次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>看懂</b>AI大<b class='flag-5'>模型</b>的并行訓(xùn)練方式(DP、PP、TP、EP)

    摩爾線程新代大語言模型對齊框架URPO入選AAAI 2026

    近日,摩爾線程在人工智能前沿領(lǐng)域取得重要突破,其提出的新代大語言模型對齊框架——URPO統(tǒng)獎勵與策略優(yōu)化,相關(guān)研究論文已被人工智能領(lǐng)域的國際頂級學(xué)術(shù)會議AAAI 2026收錄。這
    的頭像 發(fā)表于 11-17 16:03 ?504次閱讀
    摩爾線程新<b class='flag-5'>一</b>代大語言<b class='flag-5'>模型</b>對齊<b class='flag-5'>框架</b>URPO入選AAAI 2026

    百度心大模型5.0-Preview文本能力國內(nèi)第

    11月8日凌晨,LMArena大模型競技場最新排名顯示,心全新模型ERNIE-5.0-Preview-1022登上文本排行榜全球并列第二、中國第
    的頭像 發(fā)表于 11-11 17:15 ?1491次閱讀

    OK3506-S12 Mini開發(fā)板開箱和基本使用(飛凌嵌入式)

    OK3506-S12 Mini開發(fā)板 圖2 OK3506-S12 Mini開發(fā)板 開發(fā)板簡介 ? ?RK3506J/RK3506B是款高性能的三核Cortex-A7應(yīng)用處理器,專為智能語音交互、音頻輸入/輸出
    發(fā)表于 11-03 00:57

    【六岳微LY-F335開發(fā)板試用體驗】epwm啟動ADC并在OLED上顯示結(jié)果

    ;添加還是在C2000linker 的include中添加或用工程文件管理器添加,只要將兩個CMD文件加入工程就行,F(xiàn)lash和RAM的CMD文件同時只能個使用(關(guān)鍵是不同同時編譯,可以兩個都添加
    發(fā)表于 09-26 17:32

    寧暢與與百度心大模型展開深度技術(shù)合作

    近日,百度正式開源心大模型4.5系列模型。作為心開源合作伙伴,寧暢在模型開源首日即實現(xiàn)即刻部署,做到“開源即接入、發(fā)布即可用”。據(jù)悉,
    的頭像 發(fā)表于 07-07 16:26 ?883次閱讀

    黑芝麻智能與心大模型技術(shù)合作升級

    近日,心大模型正式開源,黑芝麻智能即日起快速啟動與心大模型技術(shù)合作。
    的頭像 發(fā)表于 07-04 17:24 ?1346次閱讀
    黑芝麻智能與<b class='flag-5'>文</b>心大<b class='flag-5'>模型</b>技術(shù)合作升級

    龍芯中科與心系列模型開展深度技術(shù)合作

    ”解決方案。 強(qiáng)強(qiáng)聯(lián)合!自主架構(gòu)賦能大模型訓(xùn)練 心大模型 心4.5系列模型均使用飛槳深度學(xué)習(xí)框架
    的頭像 發(fā)表于 07-02 16:53 ?1364次閱讀

    兆芯率先展開心系列模型深度技術(shù)合作

    對文心系列大模型的快速適配、無縫銜接。 ? 心大模型 ? 心4.5系列開源模型共10款,均使用飛漿深度學(xué)習(xí)
    的頭像 發(fā)表于 07-01 10:49 ?983次閱讀

    ELF2開發(fā)板的ubuntu系統(tǒng)的ax200 wifi配網(wǎng)

    root@elf2-desktop:/home/elf/Desktop# ls 5.10.209 碰到的很弟弟的問題:我理解是把5.10.209件內(nèi)容復(fù)制到/usr/lib/modules,然后重啟
    發(fā)表于 04-18 16:05

    【米爾-全志T536開發(fā)板試用體驗】Wi-Fi連接測試體驗

    ms 64 bytes from 36.152.44.93: seq=1 ttl=51 time=120.037 ms 64 bytes from 36.152.44.93: seq=2 ttl=51
    發(fā)表于 03-18 11:29

    函數(shù)HAL_I2C_Slave_Seq_Transmit_IT和HAL_I2C_Slave_Seq_Receive_IT實現(xiàn)代碼有處理DMA請求,這是出于什么考慮?

    函數(shù)HAL_I2C_Slave_Seq_Transmit_IT和HAL_I2C_Slave_Seq_Receive_IT實現(xiàn)代碼有處理DMA請求,這是出于什么考慮?求解答!
    發(fā)表于 03-14 09:01