91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

采用P-Tuning解決非英語(yǔ)下游任務(wù)

星星科技指導(dǎo)員 ? 來(lái)源:NVIDIA ? 作者:NVIDIA ? 2022-10-10 11:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著對(duì)預(yù)訓(xùn)練大型語(yǔ)言模型( LLM )權(quán)重訪問(wèn)需求的增加,圍繞 LLM 共享的環(huán)境正在發(fā)生變化。最近, Meta 發(fā)布了 開(kāi)式預(yù)訓(xùn)練Transformer ,一個(gè)具有 1750 億個(gè)參數(shù)的語(yǔ)言模型。 BigScience 計(jì)劃在幾個(gè)月內(nèi)發(fā)布具有 1760 億個(gè)參數(shù)的多語(yǔ)言模型。

隨著越來(lái)越多的 LLM 可用,行業(yè)需要解決實(shí)際自然語(yǔ)言任務(wù)的技術(shù)。研究表明, 模型提示方法 可以從 LLM 中獲得良好的零拍和少拍性能,并有助于在各種下游自然語(yǔ)言處理( NLP )任務(wù)中產(chǎn)生高質(zhì)量的結(jié)果。白皮書(shū)提出了一種解決方案,使經(jīng)過(guò)預(yù)訓(xùn)練的通用 LLM 在自然語(yǔ)言處理領(lǐng)域日益流行的新 預(yù)訓(xùn)練、提示和預(yù)測(cè) 范式中切實(shí)有用。

然而,當(dāng)您將提示方法應(yīng)用于工業(yè)自然語(yǔ)言處理應(yīng)用程序時(shí),還需要考慮其他挑戰(zhàn)。對(duì)于任何下游 NLP 任務(wù),必須收集標(biāo)記數(shù)據(jù),以指示語(yǔ)言模型如何生成預(yù)期結(jié)果。

盡管對(duì)于許多任務(wù),有大量標(biāo)記的英語(yǔ)數(shù)據(jù),但很少有具有基準(zhǔn)價(jià)值的非英語(yǔ)下游數(shù)據(jù)集。標(biāo)記數(shù)據(jù)的稀缺性是業(yè)界在低資源語(yǔ)言環(huán)境中執(zhí)行自然語(yǔ)言處理任務(wù)的首要挑戰(zhàn)。

此外,公司通常必須動(dòng)態(tài)解決多個(gè)下游非線(xiàn)性規(guī)劃任務(wù),這些任務(wù)可以隨著時(shí)間的推移而演變。在不忘記先前學(xué)習(xí)任務(wù)的情況下對(duì)新任務(wù)進(jìn)行連續(xù)學(xué)習(xí)仍然是一個(gè)熱門(mén)的研究課題。一個(gè)好的、干凈的解決方案意味著更低的模型維護(hù)、更低的部署成本和快速的開(kāi)發(fā)。

在本文中,我們將向您展示如何將 p-tuning (一種快速學(xué)習(xí)方法)適應(yīng)于低資源的語(yǔ)言設(shè)置。我們使用在 NVIDIA NeMo 中實(shí)現(xiàn)的 improved version p-tuning ,它支持虛擬提示的連續(xù)多任務(wù)學(xué)習(xí)。特別是,我們將重點(diǎn)放在使我們的英語(yǔ) p-tuning 工作流適應(yīng)瑞典語(yǔ)。 Learn more 關(guān)于瑞典的一個(gè)財(cái)團(tuán)計(jì)劃如何在北歐地區(qū)提供語(yǔ)言模型。

我們提出的工作流是通用的,可以很容易地為其他語(yǔ)言修改。

為什么選擇大型語(yǔ)言模型?

如 OpenAI 的 語(yǔ)言模型比例律研究 所示,語(yǔ)言模型的性能隨著語(yǔ)言模型大小的增加而提高。這導(dǎo)致了訓(xùn)練越來(lái)越大的語(yǔ)言模型的競(jìng)賽。

NVIDIA 最近培訓(xùn)了一名 Megatron 圖靈 NLG 530B 該模型具有優(yōu)越的零拍和少拍學(xué)習(xí)性能。為了訪問(wèn) LLM ,研究人員可以使用付費(fèi)模型 API ,例如 OpenAI 提供的 API ,或者在本地部署公開(kāi)發(fā)布的模型。

當(dāng)您有一個(gè)能夠很好地理解語(yǔ)言的 LLM 時(shí),您可以應(yīng)用 即時(shí)學(xué)習(xí)方法 使該模型解決過(guò)多的非線(xiàn)性規(guī)劃下游任務(wù)。

快速學(xué)習(xí)和 p- 調(diào)優(yōu)的簡(jiǎn)要概述

與手動(dòng)或自動(dòng)選擇離散文本提示不同, prompt learning 使用虛擬提示嵌入,可以使用梯度下降進(jìn)行優(yōu)化。這些虛擬嵌入會(huì)從文本提示自動(dòng)插入到離散令牌嵌入中。

在即時(shí)學(xué)習(xí)期間,整個(gè) GPT 模型被凍結(jié),并且在每個(gè)訓(xùn)練步驟中僅更新這些虛擬令牌嵌入。提示學(xué)習(xí)過(guò)程會(huì)產(chǎn)生少量虛擬令牌嵌入,這些嵌入可以與文本提示相結(jié)合,以提高推理時(shí)的任務(wù)性能。

具體來(lái)說(shuō),在 p- 調(diào)諧中,使用一個(gè)小的長(zhǎng)短時(shí)記憶( LSTM )模型作為提示編碼器。提示編碼器的輸入是任務(wù)名稱(chēng),輸出是特定于任務(wù)的虛擬令牌嵌入,與文本提示嵌入一起傳遞到 LLM 。

多任務(wù)連續(xù)學(xué)習(xí)解決方案

圖 2 顯示了 p-tuning 使用提示編碼器生成虛擬令牌嵌入。在 原始 p 調(diào)諧紙 中,提示編碼器只能用于一個(gè)任務(wù)。我們?cè)谖覀兊?NeMo 實(shí)現(xiàn) 因此,提示編碼器可以根據(jù)不同任務(wù)的名稱(chēng)進(jìn)行調(diào)整。

訓(xùn)練提示編碼器時(shí),它將任務(wù)名稱(chēng)映射到一組虛擬令牌嵌入。這使您能夠構(gòu)建一個(gè)嵌入表,該表存儲(chǔ)每個(gè)任務(wù)的任務(wù)名稱(chēng)和虛擬令牌嵌入之間的映射。使用此嵌入表可以不斷學(xué)習(xí)新任務(wù),避免災(zāi)難性遺忘。例如,可以使用任務(wù) A 和 B 啟動(dòng) p-tuning 。

訓(xùn)練后,您可以將任務(wù) A 和 B 的虛擬令牌嵌入保存在表中,并將其凍結(jié)。您可以使用另一個(gè)新的提示編碼器繼續(xù)訓(xùn)練任務(wù) C 。類(lèi)似地,在訓(xùn)練后,將任務(wù) C 的虛擬令牌嵌入保存在提示表中。在推理過(guò)程中,該模型可以查找提示表,并為不同的任務(wù)使用正確的虛擬令牌嵌入。

除了持續(xù)學(xué)習(xí)能力外, p-tuning 的 modified version 還有幾個(gè)其他優(yōu)點(diǎn)。首先,我們的實(shí)現(xiàn)引出了質(zhì)量模型預(yù)測(cè)。今年早些時(shí)候,我們?cè)?GTC 2022 年關(guān)于使用 P-tuning 可以顯著提高大型非線(xiàn)性規(guī)劃模型的性能 的會(huì)議上,展示了 p- 調(diào)優(yōu)有助于實(shí)現(xiàn)下游非線(xiàn)性規(guī)劃任務(wù)的最先進(jìn)精度。

其次, p- 調(diào)優(yōu)只需要幾個(gè)標(biāo)記的數(shù)據(jù)點(diǎn)就可以給出合理的結(jié)果。例如,對(duì)于 FIQA 情緒分析任務(wù) ,它使用了 1000 個(gè)數(shù)據(jù)示例來(lái)實(shí)現(xiàn) 92% 的準(zhǔn)確性。

第三,原始文件中描述的 p- 調(diào)優(yōu),在我們的具體實(shí)現(xiàn)中更是如此,是極其高效的參數(shù)。在 p- 調(diào)整期間,參數(shù)等于原始 GPT 模型參數(shù)的一小部分的 LSTM 被調(diào)整,而 GPT 模型權(quán)重保持不變。在訓(xùn)練結(jié)束時(shí),可以丟棄 LSTM 網(wǎng)絡(luò),只需要保存虛擬提示本身。這意味著在推理過(guò)程中必須存儲(chǔ)和使用總計(jì)小于 GPT 模型大小約 0.01% 的參數(shù),以實(shí)現(xiàn)與零次和少次推理相比顯著提高的任務(wù)性能。

第四, p-tuning 在訓(xùn)練期間也更節(jié)省資源。凍結(jié) GPT 模型意味著我們不必為這些模型參數(shù)存儲(chǔ)優(yōu)化器狀態(tài),也不必花時(shí)間更新 GPT 模型權(quán)重。這節(jié)省了大量 GPU 內(nèi)存。

最后,虛擬提示令牌參數(shù)與 GPT 模型解耦。這使得能夠分發(fā)小型虛擬令牌參數(shù)文件,這些文件可以插入共享訪問(wèn) GPT 模型,而不需要共享更新的 GPT 模型權(quán)重,這是微調(diào) GPT 模型時(shí)所需要的。

創(chuàng)建瑞典下游任務(wù)數(shù)據(jù)集

為了將 p-tuning 應(yīng)用于非英語(yǔ)下游任務(wù),我們?cè)谀繕?biāo)語(yǔ)言中標(biāo)記了數(shù)據(jù)。由于有大量的英文標(biāo)簽下游任務(wù)數(shù)據(jù),我們使用機(jī)器翻譯模型將這些英文標(biāo)簽數(shù)據(jù)翻譯成目標(biāo)低資源語(yǔ)言。在這篇文章中,我們將英文數(shù)據(jù)翻譯成瑞典語(yǔ)。由于 p-tuning 的低標(biāo)記數(shù)據(jù)要求,我們不需要翻譯很多標(biāo)記數(shù)據(jù)點(diǎn)。

為了完全控制翻譯模型,我們選擇使用從頭開(kāi)始訓(xùn)練的內(nèi)部翻譯模型。該模型采用英語(yǔ)到瑞典語(yǔ)/挪威語(yǔ)(一對(duì)多)的方向,使用 NeMo NMT 工具包。 訓(xùn)練數(shù)據(jù)(平行語(yǔ)料庫(kù))來(lái)自 Opus 。英語(yǔ)到瑞典語(yǔ)的翻譯質(zhì)量由母語(yǔ)為英語(yǔ)和瑞典語(yǔ)的人手動(dòng)評(píng)估。

我們還使用了其他翻譯模型來(lái)幫助檢查我們的翻譯模型的質(zhì)量。我們翻譯了一些來(lái)自原始英語(yǔ)基準(zhǔn)數(shù)據(jù)的隨機(jī)樣本,并手動(dòng)檢查了其他模型翻譯與我們自己的模型翻譯的質(zhì)量。我們使用了 deepL 、 谷歌翻譯 API 和 DeepTranslator 。

除了一些時(shí)鐘和時(shí)間系統(tǒng)錯(cuò)誤外,整體翻譯質(zhì)量足夠好,我們可以繼續(xù)將英語(yǔ)標(biāo)記的數(shù)據(jù)轉(zhuǎn)換為瑞典語(yǔ)。隨著我們的 NeMo 非負(fù)矩陣變換英語(yǔ) – 瑞典語(yǔ)翻譯模型的訓(xùn)練和驗(yàn)證完成,我們使用該模型翻譯了兩個(gè)英語(yǔ)基準(zhǔn)數(shù)據(jù)集:

財(cái)務(wù)情緒分析 ( FIQA )

Assistant Benchmarking (助手)

為了方便起見(jiàn),我們使用 svFIQA 和 svAssistant 來(lái)區(qū)分原始英語(yǔ)和翻譯后的瑞典基準(zhǔn)數(shù)據(jù)集。

以下是分別從 FIQA 和 svFIQA 中隨機(jī)選取的培訓(xùn)記錄示例:

英語(yǔ):

{"taskname": "sentiment-task", "sentence": "Barclays PLC & Lloyds Banking Group PLC Are The 2 Banks I'd Buy Today. Sentiment for Lloyds ", "label": "positive"}

瑞典的:

{"taskname": "sentiment-task", "sentence": "Barclays PLC & Lloyds Banking Group PLC ?r de 2 banker jag skulle k?pa idag.. K?nslor f?r Lloyds", "label": "positiva"}

翻譯后的數(shù)據(jù)集應(yīng)保留實(shí)際英語(yǔ)源數(shù)據(jù)的正確語(yǔ)法結(jié)構(gòu)。因?yàn)榍榫w指的是兩家銀行,所以是復(fù)數(shù)。翻譯成瑞典語(yǔ)的地面實(shí)況標(biāo)簽也應(yīng)反映正確的瑞典語(yǔ)語(yǔ)法,即“ positiva ”。

為了完整性起見(jiàn),我們還從 Assistant 和 svAssistant 中隨機(jī)選擇了一個(gè)示例:

英語(yǔ):

{"taskname": "intent_and_slot", "utterance": "will you please get the coffee machine to make some coffee", "label": "\nIntent: iot_coffee\nSlots: device_type(coffee machine)"}

瑞典的:

{"taskname": "intent_and_slot", "utterance": "kommer du sn?lla f? kaffemaskinen f?r att g?ra lite kaffe", "label": "Intent: iot _ kaffe Slots: enhet _ typ (kaffemaskin)"}

GPT 模型

以下實(shí)驗(yàn)中使用的瑞典 GPT-SW3 檢查點(diǎn)是瑞典 AI 和 NVIDIA 合作的結(jié)果。更具體地說(shuō), AI 瑞典的 GPT-SW3 檢查點(diǎn)具有 36 億個(gè)參數(shù),使用威震天 LM 進(jìn)行預(yù)訓(xùn)練。該模型用于進(jìn)行本文所述的瑞典多任務(wù) p- 調(diào)整實(shí)驗(yàn)。

多任務(wù) p- 調(diào)諧實(shí)驗(yàn)

為了模擬典型的企業(yè)客戶(hù)用例,我們?cè)O(shè)想了一個(gè)場(chǎng)景,其中用戶(hù)首先需要高精度地解決情感分析非線(xiàn)性規(guī)劃任務(wù)。隨后,隨著業(yè)務(wù)的發(fā)展,用戶(hù)需要繼續(xù)使用相同的模型解決虛擬助理任務(wù),以降低成本。

我們?cè)谌鸬湔Z(yǔ)的連續(xù)學(xué)習(xí)設(shè)置中運(yùn)行了兩次 p-tuning 。我們將 svFIQA 數(shù)據(jù)集用于第一個(gè)自然語(yǔ)言處理任務(wù)。然后,我們將 svAssistant 數(shù)據(jù)集用于第二個(gè) NLP 任務(wù)。

我們可以同時(shí)對(duì)這兩個(gè)任務(wù)進(jìn)行 p-tuned 。然而,我們選擇連續(xù)進(jìn)行兩輪 p 調(diào)整,以展示 NeMo 中的連續(xù)快速學(xué)習(xí)能力。

我們首先使用該 p-tuning 教程筆記本 的稍微修改版本,對(duì) svFIQA 和 svAssistant 進(jìn)行了一系列短期超參數(shù)調(diào)優(yōu)實(shí)驗(yàn)。在這些實(shí)驗(yàn)中,我們確定了每個(gè)任務(wù)的最佳虛擬令牌數(shù)量和最佳虛擬令牌放置。

為了在文本提示中操作虛擬令牌的總數(shù)及其位置,我們?cè)?p-tuning 模型的訓(xùn)練配置文件中修改了以下sentiment任務(wù)模板。

 "taskname": "sentiment", "prompt_template": "<|VIRTUAL_PROMPT_0|> {sentence} <|VIRTUAL_PROMPT_1|>sentiment:{label}", "total_virtual_tokens": 16, "virtual_token_splits": [10,6], "truncate_field": None, "answer_only_loss": True, "answer_field": "label",

此提示模板是特定于語(yǔ)言的。除了虛擬令牌的位置和使用的虛擬令牌的數(shù)量外,將每個(gè)提示模板中的單詞翻譯成目標(biāo)語(yǔ)言也很重要。在這里,術(shù)語(yǔ)“情緒”(添加在最終虛擬提示令牌和標(biāo)簽之間)應(yīng)翻譯成瑞典語(yǔ)。

在我們的實(shí)驗(yàn)中,我們使用了 10 倍交叉驗(yàn)證來(lái)計(jì)算性能指標(biāo)。在我們的超參數(shù)搜索過(guò)程中,我們對(duì)瑞典 GPT-SW3 模型進(jìn)行了第一次 p- 調(diào)優(yōu),直到驗(yàn)證損失在 10-20 個(gè)階段后趨于穩(wěn)定。

在以這種方式進(jìn)行了幾輪實(shí)驗(yàn)后,我們決定對(duì) svFIQA 數(shù)據(jù)集的所有 10 倍使用以下模板:

 "taskname": "sentiment-task", "prompt_template": "<|VIRTUAL_PROMPT_0|> {sentence}:{label}", "total_virtual_tokens": 10, "virtual_token_splits": [10], "truncate_field": None, "answer_only_loss": True, "answer_field": "label",

術(shù)語(yǔ)“情緒”從提示模板中刪除,而是直接包含在提示的{sentence}部分。這使我們能夠輕松地將“感悟”與英語(yǔ)句子的其余部分一起翻譯成瑞典語(yǔ):

{"taskname": "sentiment-task", "sentence": "Barclays PLC & Lloyds Banking Group PLC ?r de 2 banker jag skulle k?pa idag.. K?nslor f?r Lloyds", "label": "positiva"}

在找到最佳訓(xùn)練配置后,我們?cè)?10 個(gè) svFIQA 折疊中的每個(gè)折疊上對(duì)瑞典 GPT-SW3 模型進(jìn)行了 p- 調(diào)優(yōu)。我們?cè)u(píng)估了對(duì)應(yīng)測(cè)試分割上每個(gè)折疊的 p- 調(diào)整檢查點(diǎn)。通過(guò)對(duì) svAssistant 數(shù)據(jù)集重復(fù)相同的步驟,我們向 GPT-SW3 模型中添加了意向和時(shí)隙預(yù)測(cè)功能,這次恢復(fù)了在 svFIQA 上訓(xùn)練的檢查點(diǎn),并添加了意向和時(shí)隙任務(wù)。

后果

為了建立一個(gè)基線(xiàn),并且由于在這種情況下沒(méi)有瑞典現(xiàn)有的基準(zhǔn),我們使用原始 AI 瑞典 GPT-SW3 模型的零、一和少數(shù)鏡頭學(xué)習(xí)性能作為基線(xiàn)。

可以看出,除了零炮外, svFIQA 上的少數(shù)炮學(xué)習(xí)性能為 42-52% 。可以理解,由于 GPT 模型接收到零標(biāo)記示例,零炮的性能明顯較差。該模型生成的令牌很可能與給定任務(wù)無(wú)關(guān)。

考慮到情緒分析任務(wù)的二元性,在計(jì)算任務(wù)準(zhǔn)確性之前,我們將單詞“ positive ”和“ negative ”的所有瑞典語(yǔ)法變體映射到相同的格式。

通過(guò)這種重映射機(jī)制,我們?nèi)〉昧讼喈?dāng)好的結(jié)果: 82.65% 。 svFIQA 測(cè)試中的 p- 調(diào)諧性能在所有 10 倍中取平均值。

表 2 顯示了 svAssistant 數(shù)據(jù)集(意向和時(shí)隙分類(lèi))上第二輪 p 調(diào)整的結(jié)果。所有 10 倍的分?jǐn)?shù)也取平均值。

接下來(lái),我們進(jìn)一步探討了這個(gè)問(wèn)題, “ 在不降低性能的情況下,我們可以減少多少訓(xùn)練數(shù)據(jù)總量? ”

對(duì)于 svFIQA 數(shù)據(jù)集,我們發(fā)現(xiàn)我們可以在每次訓(xùn)練運(yùn)行中只獲得十分之一的訓(xùn)練數(shù)據(jù),并且仍然保持可接受的性能。然而,從 5% 的訓(xùn)練數(shù)據(jù)開(kāi)始(只有 47 個(gè)訓(xùn)練數(shù)據(jù)點(diǎn)),我們開(kāi)始看到性能急劇下降,性能在 1% 左右變得不穩(wěn)定(只有 9 個(gè)訓(xùn)練數(shù)據(jù)點(diǎn),平均 6 次訓(xùn)練,每個(gè)訓(xùn)練有 9 個(gè)隨機(jī)采樣的數(shù)據(jù)點(diǎn))。

今后的工作

我們注意到,可以改進(jìn)意向和時(shí)隙分類(lèi)的結(jié)果。它們?cè)诤艽蟪潭壬弦蕾?lài)于翻譯模型將非自然文本從英語(yǔ)翻譯為瑞典語(yǔ)的能力。在下面的示例中,英語(yǔ)意圖和時(shí)隙提示格式對(duì)于翻譯模型來(lái)說(shuō)很難準(zhǔn)確翻譯,從而影響了瑞典語(yǔ)翻譯的質(zhì)量。

英文標(biāo)簽為“意圖: alarm \ u set Slots : date ( sunday ), 時(shí)間(上午八點(diǎn))” 。

當(dāng)它被翻譯成瑞典語(yǔ)時(shí),它變成了 “時(shí)間(上午八點(diǎn))” 。

翻譯模型完全跳過(guò)了“意圖”和“槽:”這兩個(gè)詞。它還刪除了 intent 中alarm_set和插槽中date(sunday)的翻譯。

未來(lái),我們將把源語(yǔ)言數(shù)據(jù)表述為自然語(yǔ)言,然后再將其翻譯成目標(biāo)語(yǔ)言。我們還嘗試了一種預(yù)訓(xùn)練的 mT5 模型,該模型可以完全跳過(guò)翻譯步驟。早期的結(jié)果是有希望的,所以請(qǐng)關(guān)注完整的結(jié)果。

最后,我們還計(jì)劃將快速學(xué)習(xí)方法與基本 GPT 模型的完全微調(diào)進(jìn)行比較。這將使我們能夠比較兩種任務(wù)適應(yīng)方法之間的權(quán)衡。

結(jié)論

在這篇文章中,我們展示了一種參數(shù)高效的解決方案,可以在低資源語(yǔ)言環(huán)境中解決多個(gè)自然語(yǔ)言處理任務(wù)。針對(duì)瑞典語(yǔ),我們將英語(yǔ)情感分類(lèi)和意圖/時(shí)隙分類(lèi)數(shù)據(jù)集翻譯成瑞典語(yǔ)。然后,我們?cè)谶@些數(shù)據(jù)集上對(duì)瑞典 GPT-SW3 模型進(jìn)行了 p- 調(diào)優(yōu),與我們的幾個(gè)快照學(xué)習(xí)基線(xiàn)相比,取得了良好的性能。

我們表明,我們的方法可以幫助您訓(xùn)練提示編碼器,只需將原始訓(xùn)練數(shù)據(jù)的十分之一調(diào)整到模型原始參數(shù)的 0.1% 以下,同時(shí)仍能保持性能。

由于 LLM 在訓(xùn)練過(guò)程中被凍結(jié), p-tuning 需要更少的資源,整個(gè)訓(xùn)練過(guò)程可以高效快速地完成,這使得任何人都可以訪問(wèn) LLM 。您可以帶上自己的數(shù)據(jù),并根據(jù)自己的用例調(diào)整模型。

在我們的 NeMo p- 調(diào)諧實(shí)現(xiàn)中,我們還簡(jiǎn)化了輕量級(jí)的連續(xù)學(xué)習(xí)。您可以使用我們的方法不斷學(xué)習(xí)和部署新任務(wù),而不會(huì)降低以前添加的任務(wù)的性能。

關(guān)于作者

Virginia Adams 是一位深度學(xué)習(xí)應(yīng)用科學(xué)家,與 NVIDIA 對(duì)話(huà)人工智能團(tuán)隊(duì)( NeMo )合作開(kāi)發(fā)自然語(yǔ)言處理應(yīng)用程序。 2018 年,她獲得了麻省理工學(xué)院中文系計(jì)算機(jī)科學(xué)學(xué)士學(xué)位。她在深度學(xué)習(xí)領(lǐng)域有四年的專(zhuān)業(yè)經(jīng)驗(yàn),目前正在斯坦福大學(xué)攻讀計(jì)算機(jī)科學(xué)碩士學(xué)位。在工作之外,你可以看到維吉尼亞在讀科幻小說(shuō),嘗試新的運(yùn)動(dòng)。

Zenodia Charpy 是高級(jí)深度學(xué)習(xí)解決方案架構(gòu)師,專(zhuān)注于應(yīng)用自然語(yǔ)言處理和深度學(xué)習(xí)技術(shù)來(lái)應(yīng)對(duì)非英語(yǔ)和低資源語(yǔ)言的挑戰(zhàn),例如瑞典語(yǔ)、丹麥語(yǔ)和挪威語(yǔ)。作為一名數(shù)據(jù)科學(xué)家,她在解決現(xiàn)實(shí)世界問(wèn)題、構(gòu)建端到端解決方案方面擁有八年的豐富經(jīng)驗(yàn),她既是一名內(nèi)部數(shù)據(jù)科學(xué)家,也是一名數(shù)據(jù)科學(xué)顧問(wèn)。在空閑時(shí)間,她喜歡在森林里散步或跑步,做瑜伽。

Yi Dong 是 NVIDIA 的深度學(xué)習(xí)解決方案架構(gòu)師,負(fù)責(zé)提供金融服務(wù)業(yè)人工智能解決方案。易建聯(lián)獲得了博士學(xué)位。來(lái)自約翰·霍普金斯大學(xué)醫(yī)學(xué)院,研究計(jì)算神經(jīng)科學(xué)。易在計(jì)算機(jī)軟件工程、機(jī)器學(xué)習(xí)和金融領(lǐng)域擁有 10 年的工作經(jīng)驗(yàn)。易建聯(lián)喜歡閱讀深度學(xué)習(xí)的最新進(jìn)展,并將其應(yīng)用于解決財(cái)務(wù)問(wèn)題。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3963

    瀏覽量

    142829
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5617

    瀏覽量

    109866
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    491

    瀏覽量

    23297
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    自動(dòng)化PLC必學(xué)會(huì)的英語(yǔ),你學(xué)會(huì)了嗎?

    在工業(yè)自動(dòng)化領(lǐng)域,可編程邏輯控制器(PLC)作為核心控制設(shè)備,其編程、調(diào)試和維護(hù)過(guò)程中不可避免地需要與英語(yǔ)打交道。無(wú)論是閱讀原廠技術(shù)文檔、理解國(guó)際標(biāo)準(zhǔn)協(xié)議,還是與全球同行交流經(jīng)驗(yàn),掌握專(zhuān)業(yè)英語(yǔ)已成為
    的頭像 發(fā)表于 03-12 16:59 ?199次閱讀
    自動(dòng)化PLC必學(xué)會(huì)的<b class='flag-5'>英語(yǔ)</b>,你學(xué)會(huì)了嗎?

    龍芯中科護(hù)航蘇州初中英語(yǔ)聽(tīng)力口語(yǔ)自動(dòng)化考試

    近日,蘇州市八年級(jí)英語(yǔ)“人機(jī)對(duì)話(huà)”的正式考試順利落幕,此次考試采用聽(tīng)說(shuō)科技的英語(yǔ)人機(jī)對(duì)話(huà)考試系統(tǒng),全程以“實(shí)戰(zhàn)”模式護(hù)航學(xué)生備考自動(dòng)化英語(yǔ)聽(tīng)說(shuō)測(cè)試,是蘇州市教育數(shù)字化、規(guī)范化考評(píng)的重要
    的頭像 發(fā)表于 02-11 16:27 ?913次閱讀

    學(xué)單片機(jī)編程對(duì)數(shù)學(xué)英語(yǔ)有要求嗎

    1. 單片機(jī)是什么? 答:?jiǎn)纹瑱C(jī)就是一個(gè)微型CPU,把程序燒錄芯片里面,通過(guò)控制不同的外圍電路實(shí)現(xiàn)不同產(chǎn)品的功能。 2. 學(xué)單片機(jī)編程對(duì)數(shù)學(xué)英語(yǔ)有要求嗎? 答:數(shù)學(xué)會(huì)基本的加減乘除就行,英語(yǔ)會(huì)認(rèn)
    發(fā)表于 02-02 06:24

    FreeRTOS 空閑任務(wù)

    幾乎所有的小型 RTOS 中都會(huì)有一個(gè)空閑任務(wù),空閑任務(wù)屬于系統(tǒng)任務(wù),是必須要執(zhí)行的,用戶(hù)程序不能將其關(guān)閉。不光小型系統(tǒng)中有空閑任務(wù),大型的系統(tǒng)里面也有的,比如我們使用的Window系
    發(fā)表于 12-04 07:35

    Task任務(wù):LuatOS實(shí)現(xiàn)“任務(wù)級(jí)并發(fā)”的核心引擎

    Task任務(wù)通過(guò)其強(qiáng)大的并發(fā)處理能力,使LuatOS能夠在單線(xiàn)程環(huán)境中模擬多線(xiàn)程執(zhí)行,通過(guò)協(xié)程的掛起與恢復(fù)機(jī)制,實(shí)現(xiàn)任務(wù)級(jí)的并行操作,顯著提升系統(tǒng)效能。 sys核心庫(kù)是LuatOS運(yùn)行框架庫(kù),也是
    的頭像 發(fā)表于 08-28 13:49 ?544次閱讀
    Task<b class='flag-5'>任務(wù)</b>:LuatOS實(shí)現(xiàn)“<b class='flag-5'>任務(wù)</b>級(jí)并發(fā)”的核心引擎

    云知聲向信陽(yáng)高中捐贈(zèng)英語(yǔ)口語(yǔ)考評(píng)教室設(shè)備

    攜團(tuán)隊(duì)回到母校,捐贈(zèng)英語(yǔ)口語(yǔ)智能考評(píng)教室設(shè)備,助力母校英語(yǔ)教學(xué)改革與人工智能技術(shù)深度融合。信陽(yáng)市教體局領(lǐng)導(dǎo)、信陽(yáng)高中相關(guān)領(lǐng)導(dǎo)及師生代表共同見(jiàn)證了這一暖心時(shí)刻。
    的頭像 發(fā)表于 08-13 10:13 ?952次閱讀

    采用 WLCSP 封裝的 3P4T 發(fā)射/接收 LTE 交換機(jī) skyworksinc

    電子發(fā)燒友網(wǎng)為你提供()采用 WLCSP 封裝的 3P4T 發(fā)射/接收 LTE 交換機(jī)相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有采用 WLCSP 封裝的 3P4T 發(fā)射/接收 LTE 交換機(jī)的引腳圖
    發(fā)表于 07-31 18:34
    <b class='flag-5'>采用</b> WLCSP 封裝的 3<b class='flag-5'>P</b>4T 發(fā)射/接收 LTE 交換機(jī) skyworksinc

    K230 ISP Tuning Tool導(dǎo)出數(shù)據(jù)錯(cuò)誤的原因?

    K230 ISP Tuning Tool.exe通過(guò)如下設(shè)置: 點(diǎn)擊確定,工具報(bào)錯(cuò): 2025-07-10 09:24:54 Error: WriteInputModuleData Failed
    發(fā)表于 07-29 09:14

    Hyperabrupt Junction Tuning 變?nèi)荻O管芯片 skyworksinc

    電子發(fā)燒友網(wǎng)為你提供()Hyperabrupt Junction Tuning 變?nèi)荻O管芯片相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有Hyperabrupt Junction Tuning 變?nèi)荻O管芯片的引腳
    發(fā)表于 07-11 18:31
    Hyperabrupt Junction <b class='flag-5'>Tuning</b> 變?nèi)荻O管芯片 skyworksinc

    Hyperabrupt Junction Tuning 變?nèi)荻O管 skyworksinc

    電子發(fā)燒友網(wǎng)為你提供()Hyperabrupt Junction Tuning 變?nèi)荻O管相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有Hyperabrupt Junction Tuning 變?nèi)荻O管的引腳圖
    發(fā)表于 07-10 18:32
    Hyperabrupt Junction <b class='flag-5'>Tuning</b> 變?nèi)荻O管 skyworksinc

    Hyperabrupt Junction Tuning Varactor skyworksinc

    電子發(fā)燒友網(wǎng)為你提供()Hyperabrupt Junction Tuning Varactor相關(guān)產(chǎn)品參數(shù)、數(shù)據(jù)手冊(cè),更有Hyperabrupt Junction Tuning Varactor
    發(fā)表于 07-09 18:34
    Hyperabrupt Junction <b class='flag-5'>Tuning</b> Varactor skyworksinc

    【專(zhuān)業(yè)測(cè)評(píng)】深度拆解MDP-P906數(shù)字電源的參數(shù)性能

    MDP-P906數(shù)字電源MDP-P906是一款精致小巧的數(shù)字電源,能夠?qū)⑷魏蜗M(fèi)級(jí)直流電源轉(zhuǎn)換為穩(wěn)定、精準(zhǔn)且穩(wěn)壓的輸出。它可以輕松完成各項(xiàng)任務(wù),而且可以輕松放入口袋。如此小巧的設(shè)備里蘊(yùn)藏著豐富的技術(shù)
    的頭像 發(fā)表于 06-06 19:04 ?982次閱讀
    【專(zhuān)業(yè)測(cè)評(píng)】深度拆解MDP-<b class='flag-5'>P</b>906數(shù)字電源的參數(shù)性能

    為什么芯片制造常用P型硅

    從早期的平面 CMOS 工藝到先進(jìn)的 FinFET,p 型襯底在集成電路設(shè)計(jì)中持續(xù)被廣泛采用。為什么集成電路的制造更偏向于P型硅?
    的頭像 發(fā)表于 05-16 14:58 ?1268次閱讀
    為什么芯片制造常用<b class='flag-5'>P</b>型硅

    EZ-USB? HX3PD否可以將兩個(gè)PD端口用作下游USB端口?

    你好! 我想在設(shè)計(jì)中使用EZ-USB? HX3PD 控制器。 但我需要 2 個(gè)下游電源傳輸源端口,而不需要上游 PD 端口。數(shù)據(jù)表上寫(xiě)著:“上游(US)和一個(gè)下游(DS)端口中的USB PD 端口
    發(fā)表于 04-30 08:00

    采用雙時(shí)鐘機(jī)制下的XL2407P芯片

    網(wǎng)和帶ACK的通信模式。發(fā)射輸出功率、工作頻道以及通信數(shù)據(jù)率均可配置。 XL2407P內(nèi)含以EPROM作為內(nèi)存的8位微控制器,專(zhuān)為多組PWM的應(yīng)用設(shè)計(jì)。例如燈控, 遙控車(chē)應(yīng)用。采用CMOS制程并同時(shí)提供客戶(hù)低成本、高性能、及高性?xún)r(jià)比等顯著優(yōu)勢(shì)。 XL2407
    的頭像 發(fā)表于 04-07 10:43 ?644次閱讀
    <b class='flag-5'>采用</b>雙時(shí)鐘機(jī)制下的XL2407<b class='flag-5'>P</b>芯片