91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何讓神經(jīng)聲碼器高效地用于序列到序列聲學(xué)模型

ss ? 來源:IT創(chuàng)事記 ? 作者:IT創(chuàng)事記 ? 2021-01-07 16:01 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

往往在放下手機之后你才會意識到,電話那頭的客服其實是個機器人;或者準確地說,是“一位”智能客服。

沒錯,今天越來越多的工作正在被交給人工智能技術(shù)去完成,文本轉(zhuǎn)語音(TTS,Text To Speech)就是其中非常成熟的一部分。它的發(fā)展,決定了今天我們聽到的許多“人聲”,是如此地逼真,以至于和真人發(fā)聲無異。

除了我們接觸最多的智能客服,智能家居中的語音助手、可以服務(wù)聽障人士的無障礙播報,甚至是新聞播報和有聲朗讀等服務(wù),事實上都基于TTS這項技術(shù)。它是人機對話的一部分——簡單地說,就是讓機器說人話。

它被稱為同時運用語言學(xué)和心理學(xué)的杰出之作。不過在今天,當我們稱贊它的杰出時,更多的是因為它在在線語音生成中表現(xiàn)出的高效。

要提升語音合成效率當然不是一件容易的事。這里的關(guān)鍵是如何讓神經(jīng)聲碼器高效地用于序列到序列聲學(xué)模型,來提高TTS質(zhì)量。

科學(xué)家已經(jīng)開發(fā)出了很多這樣的神經(jīng)網(wǎng)絡(luò)聲碼器,例如WaveNet、Parallel WaveNet、WaveRNN、LPCNet 和 Multiband WaveRNN等,它們各有千秋。

WaveNet聲碼器可以生成高保真音頻,但在計算上它那巨大的復(fù)雜性,限制了它在實時服務(wù)中的部署;

LPCNet聲碼器利用WaveRNN架構(gòu)中語音信號處理的線性預(yù)測特性,可在單個處理器內(nèi)核上生成超實時的高質(zhì)量語音;但可惜,這對在線語音生成任務(wù)而言仍不夠高效。

科學(xué)家們希望TTS能夠在和人的“交流”中,達到讓人無感的順暢——不僅是語調(diào)上的熱情、親切,或冷靜;更要“毫無”延遲。

新的突破出現(xiàn)在騰訊。騰訊 AI Lab(人工智能實驗室)和云小微目前已經(jīng)率先開發(fā)出了一款基于WaveRNN多頻帶線性預(yù)測的全新神經(jīng)聲碼器FeatherWave。經(jīng)過測試,這款高效高保真神經(jīng)聲碼器可以幫助用戶顯著提高語音合成效率。

英特爾的工程團隊也參與到了這項開發(fā)工作中。他們把面向第三代英特爾至強可擴展處理器所做的優(yōu)化進行了全面整合,并采用了英特爾深度學(xué)習(xí)加速技術(shù)(英特爾 DL Boost)中全新集成的 16 位 Brain Floating Point (bfloat16) 功能。

bfloat16是一個精簡的數(shù)據(jù)格式,與如今的32位浮點數(shù)(FP32)相比,bfloat16只通過一半的比特數(shù)且僅需對軟件做出很小程度的修改,就可達到與FP32同等水平的模型精度;與半浮點精度 (FP16) 相比,它可為深度學(xué)習(xí)工作負載提供更大的動態(tài)范圍;與此同時,它無需使用校準數(shù)據(jù)進行量化/去量化操作,因此比 INT8 更方便。這些優(yōu)勢不僅讓它進一步提升了模型推理能力,還讓它能為模型訓(xùn)練提供支持。

事實上,英特爾至強可擴展處理器本就是專為運行復(fù)雜的人工智能工作負載而設(shè)計的。借助英特爾深度學(xué)習(xí)加速技術(shù),英特爾志強可擴展處理器將嵌入式 AI 性能提升至新的高度。目前,此種處理器現(xiàn)已支持英特爾高級矢量擴展 512 技術(shù)(英特爾AVX-512 技術(shù))和矢量神經(jīng)網(wǎng)絡(luò)指令 (VNNI)。

在騰訊推出的全新神經(jīng)聲碼器FeatherWave 聲碼器中,就應(yīng)用了這些優(yōu)化技術(shù)。

FeatherWave 聲碼器框圖

利用英特爾AVX-512技術(shù)和bfloat16指令,騰訊的科學(xué)家們確保了GRU模塊和Dense運算符中粗略部分/精細部分的所有SGEMV計算都使用512位矢量進行矢量化,并采用bfloat16點積指令;對于按元素逐個加/乘等運算以及其他非線性激活,都使用最新的英特爾AVX-512 指令運行。

在最終都性能測試中,通過優(yōu)化,相同質(zhì)量水平(MOS4.5)的文本轉(zhuǎn)語音速度比FP32提升了高達1.54倍。

此外,騰訊還以 GAN 和 Parallel WaveNet (PWaveNet)為基礎(chǔ),推出了一種改進后的模型,并基于第三代英特爾至強可擴展處理器對模型性能進行了優(yōu)化,最終使性能與采用FP32相比提升了高達1.89倍,同時質(zhì)量水平仍保持不變 (MOS4.4)。

騰訊在TTS領(lǐng)域的進展顯示出了人工智能領(lǐng)域的一個趨勢,那就是科學(xué)家們越來越多開始利用英特爾深度學(xué)習(xí)加速技術(shù)在CPU平臺上開展工作。

就像騰訊在針對TTS的探索中獲得了性能提升那樣,第二代和第三代英特爾至強可擴展處理器在集成了加速技術(shù)后,已經(jīng)顯著提升了人工智能工作負載的性能。

在更廣泛的領(lǐng)域內(nèi),我們已經(jīng)能夠清楚地看到這種變化——在效率表現(xiàn)上,由于針對常見人工智能軟件框架,如TensorFlow和PyTorch、庫和工具所做的優(yōu)化,CPU平臺可以幫助保持較高的性能功耗比和性價比。

尤其是擴展性上,用戶在設(shè)計系統(tǒng)時可以利用如英特爾以太網(wǎng)700系列,和英特爾傲騰內(nèi)存存儲技術(shù),來優(yōu)化網(wǎng)絡(luò)和內(nèi)存配置。這樣一來,他們就可以在充分利用現(xiàn)有硬件投資的情況下,輕松擴展人工智能訓(xùn)練的工作負載,獲得更高的吞吐量,甚至處理巨大的數(shù)據(jù)集。

不止于處理器平臺本身,英特爾目前在面向人工智能優(yōu)化的軟件,以及市場就緒型人工智能解決方案兩個維度,都建立起了差異化的市場優(yōu)勢。

例如在軟件方面,英特爾2019年2月進行的 OpenVINO/ResNet50 INT8 性能測試顯示,使用 OpenVINO或TensorFlow和英特爾深度學(xué)習(xí)加速技術(shù)時,人工智能推理性能可提高多達 3.75 倍。

今天,英特爾已經(jīng)攜手解決方案提供商,構(gòu)建了一系列的精選解決方案。這些方案預(yù)先進行了配置,并對工作負載進行了優(yōu)化。這就包括了如基于人工智能推理的英特爾精選解決方案,以及面向在面向在Apache Spark上運行的BigDL的英特爾精選解決方案等。

這些變化和方案的出現(xiàn)對于那些希望能從整體業(yè)務(wù)視角,去觀察人工智能進展的機構(gòu)或企業(yè)的管理層顯然也很有意義——如果只通過優(yōu)化,就能在一個通用平臺上完成所有人工智能的探索和落地,那么投資的價值就能夠?qū)崿F(xiàn)最大化。

許多企業(yè)做出了這樣的選擇,GE醫(yī)療就是其中一家。作為GE集團旗下的醫(yī)療健康業(yè)務(wù)部門,它構(gòu)建了一個人工智能醫(yī)學(xué)影像部署架構(gòu)。

通過采用英特爾至強可擴展處理器,和英特爾固態(tài)盤,以及多項英特爾關(guān)鍵技術(shù)——例如英特爾深度學(xué)習(xí)開發(fā)工具包,和面向深度神經(jīng)網(wǎng)絡(luò)的英特爾數(shù)學(xué)核心函數(shù)庫等;GE醫(yī)療收獲了未曾預(yù)料到的成果:

這一解決方案最終比基礎(chǔ)解決方案的推理速度提升了多達14倍,且超過了GE原定推理目標5.9倍。

責任編輯:xj

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關(guān)注

    關(guān)注

    213

    文章

    31296

    瀏覽量

    223305
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4839

    瀏覽量

    108055
  • 智能化
    +關(guān)注

    關(guān)注

    15

    文章

    5247

    瀏覽量

    60296
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    探秘DS1990A:高效序列號iButton的使用指南

    探秘DS1990A:高效序列號iButton的使用指南 在電子設(shè)計領(lǐng)域,精確的自動識別技術(shù)至關(guān)重要。DS1990A序列號iButton作為一種堅固耐用的數(shù)據(jù)載體,在自動識別方面表現(xiàn)出色。今天,我們
    的頭像 發(fā)表于 04-01 15:20 ?75次閱讀

    深度解析DS1830/A復(fù)位序列:特性、操作與應(yīng)用

    深度解析DS1830/A復(fù)位序列:特性、操作與應(yīng)用 在電子系統(tǒng)設(shè)計中,復(fù)位序列是確保系統(tǒng)穩(wěn)定啟動和可靠運行的關(guān)鍵組件。今天我們就來深入探討DALLAS SEMICONDUCTOR(
    的頭像 發(fā)表于 02-28 15:10 ?252次閱讀

    JSON:簡潔代碼高效搞定序列化與反序列

    面對頻繁的數(shù)據(jù)交互需求,用最簡方式實現(xiàn)JSON序列化與反序列化已成為開發(fā)者必備技能,借助主流庫,輕松實現(xiàn)零負擔數(shù)據(jù)轉(zhuǎn)換。JSON(JavaScriptObjectNotation)是一種輕量級
    的頭像 發(fā)表于 02-25 19:04 ?185次閱讀
    JSON:簡潔代碼<b class='flag-5'>高效</b>搞定<b class='flag-5'>序列</b>化與反<b class='flag-5'>序列</b>化

    極簡代碼,搞定JSON序列化與反序列

    LuatOS開發(fā)中,使用以下兩個函數(shù)高效處理JSON數(shù)據(jù)。 1.1 ?兩個關(guān)鍵函數(shù) 1)json.encode(obj,t) 功能是將Lua對象序列化為
    的頭像 發(fā)表于 02-23 21:46 ?414次閱讀
    極簡代碼,搞定JSON<b class='flag-5'>序列</b>化與反<b class='flag-5'>序列</b>化

    脈沖序列幅值的提取

    請教各位大佬,如圖這種脈沖序列,怎么把每個脈沖的幅值提取出來? *附件:脈沖序列幅值提取.rar
    發(fā)表于 02-09 11:35

    深入解析LM2512A:高性能RGB顯示接口序列

    深入解析LM2512A:高性能RGB顯示接口序列 在電子設(shè)備的顯示領(lǐng)域,如何高效、穩(wěn)定地傳輸高質(zhì)量的圖像數(shù)據(jù)是一個關(guān)鍵問題。TI的LM2512A作為一款專門的移動像素鏈路(MPL - 1)24位
    的頭像 發(fā)表于 12-26 11:30 ?516次閱讀

    一文讀懂LSTM與RNN:從原理到實戰(zhàn),掌握序列建模核心技術(shù)

    在AI領(lǐng)域,文本翻譯、語音識別、股價預(yù)測等場景都離不開序列數(shù)據(jù)處理。循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)作為最早的序列建模工具,開創(chuàng)了“記憶歷史信息”的先河;而長短期記憶網(wǎng)絡(luò)(LSTM)則通過創(chuàng)新設(shè)計,突破
    的頭像 發(fā)表于 12-09 13:56 ?1743次閱讀
    一文讀懂LSTM與RNN:從原理到實戰(zhàn),掌握<b class='flag-5'>序列</b>建模核心技術(shù)

    ATA-D60090功率放大器在時間調(diào)制序列生成中的應(yīng)用

    利用計算機生成波束掃描所需的的波束掃描的時間編碼序列。根據(jù)時間編碼序列,任意信號發(fā)生產(chǎn)生的方波信號通過功率放大器產(chǎn)生控制電壓信號。
    的頭像 發(fā)表于 11-30 14:27 ?491次閱讀
    ATA-D60090功率放大器在時間調(diào)制<b class='flag-5'>序列</b>生成中的應(yīng)用

    脈沖神經(jīng)元模型的硬件實現(xiàn)

    實現(xiàn)。所以現(xiàn)有的大部分 SNN 加速的硬件實現(xiàn)上都采用LIF模型。 如圖所示,設(shè)計的 SNN 神經(jīng)核整體架構(gòu)如圖所示。 神經(jīng)核主要由 LIF
    發(fā)表于 10-24 08:27

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    網(wǎng)絡(luò)模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫數(shù)字識別。一旦模型被訓(xùn)練并保存,就可以
    發(fā)表于 10-22 07:03

    小白學(xué)大模型:國外主流大模型匯總

    )領(lǐng)域。論文的核心是提出了一種名為Transformer的全新模型架構(gòu),它完全舍棄了以往序列模型(如循環(huán)神經(jīng)網(wǎng)絡(luò)RNNs和卷積神經(jīng)網(wǎng)絡(luò)CNN
    的頭像 發(fā)表于 08-27 14:06 ?1097次閱讀
    小白學(xué)大<b class='flag-5'>模型</b>:國外主流大<b class='flag-5'>模型</b>匯總

    TPS38700S-Q1多通道電壓序列發(fā)生技術(shù)解析

    Texas Instruments TPS38700S-Q1集成式多通道電壓序列發(fā)生配有窗口看門狗、I^2^C可編程,采用24引腳4mm x 4mm VQFN封裝。該多通道電壓序列發(fā)生
    的頭像 發(fā)表于 08-18 15:50 ?1073次閱讀
    TPS38700S-Q1多通道電壓<b class='flag-5'>序列</b>發(fā)生<b class='flag-5'>器</b>技術(shù)解析

    TPS38700-Q1 電源供應(yīng)序列總結(jié)

    計,可與多通道電壓監(jiān)控連接。該器件默認為預(yù)編程的OTP選項,但I2C可以根據(jù)需要對上電和斷電序列、看門狗設(shè)置和序列時序選項進行重新編程。
    的頭像 發(fā)表于 08-18 15:17 ?992次閱讀
    TPS38700-Q1 電源供應(yīng)<b class='flag-5'>序列</b><b class='flag-5'>器</b>總結(jié)

    VirtualLab Fusion應(yīng)用:多反射系統(tǒng)的非序列建模

    序列光學(xué)系統(tǒng),特別是那些非序列性來自組件內(nèi)部多次內(nèi)部反射的系統(tǒng),具有一系列特定的挑戰(zhàn)。將這樣的系統(tǒng)分解成一個順序等價的系統(tǒng)通常非常不方便,而且總是不切實際的。因此,擁有一個穩(wěn)定的非序列建模策略
    發(fā)表于 06-12 08:49

    求助,關(guān)于ad7616序列模式+crc的兩個問題求解

    我在使用序列模式+CRC時,發(fā)現(xiàn)只有序列最后一組 通道會出crc數(shù)據(jù),比如序列配置為2組
    發(fā)表于 04-15 08:23