91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)自然語言處理

文章:837 被閱讀:286.1w 粉絲數(shù):48 關(guān)注數(shù):0 點(diǎn)贊數(shù):7

廣告

OneLLM:對(duì)齊所有模態(tài)的框架!

OneLLM 是第一個(gè)在單個(gè)模型中集成八種不同模態(tài)的MLLM。通過統(tǒng)一的框架和漸進(jìn)式多模態(tài)對(duì)齊pip....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 01-04 11:27 ?1993次閱讀
OneLLM:對(duì)齊所有模態(tài)的框架!

RL究竟是如何與LLM做結(jié)合的?

強(qiáng)化學(xué)習(xí)(Reinforcement Learning, RL)的核心概念可簡(jiǎn)單概括為:一個(gè)機(jī)器人(....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 01-03 16:34 ?2076次閱讀
RL究竟是如何與LLM做結(jié)合的?

2023年大語言模型(LLM)全面調(diào)研:原理、進(jìn)展、領(lǐng)跑者、挑戰(zhàn)、趨勢(shì)

大型語言模型(LLM)是基于人工智能的先進(jìn)模型,經(jīng)過訓(xùn)練,它可以密切反映人類自然交流的方式處理和生成....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 01-03 16:05 ?2537次閱讀
2023年大語言模型(LLM)全面調(diào)研:原理、進(jìn)展、領(lǐng)跑者、挑戰(zhàn)、趨勢(shì)

一種基于表征工程的生成式語言大模型人類偏好對(duì)齊策略

最近復(fù)旦大學(xué)自然語言處理組鄭驍慶和黃萱菁團(tuán)隊(duì)提出了基于表征工程(Representation Eng....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 01-03 14:25 ?1440次閱讀
一種基于表征工程的生成式語言大模型人類偏好對(duì)齊策略

NLP領(lǐng)域的語言偏置問題分析

許多研究證明,學(xué)術(shù)論文表達(dá)的nativeness會(huì)影響其被接受發(fā)表的可能性[1, 2]。先前的研究也....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 01-03 11:00 ?1076次閱讀
NLP領(lǐng)域的語言偏置問題分析

ChatGPT是一個(gè)好的因果推理器嗎?

因果推理能力對(duì)于許多自然語言處理(NLP)應(yīng)用至關(guān)重要。最近的因果推理系統(tǒng)主要基于經(jīng)過微調(diào)的預(yù)訓(xùn)練語....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 01-03 09:55 ?1609次閱讀
ChatGPT是一個(gè)好的因果推理器嗎?

1-2B參數(shù)規(guī)模大模型的使用心得

大模型時(shí)代,根據(jù)大模型縮放定律,大家通常都在追求模型的參數(shù)規(guī)模更大、訓(xùn)練的數(shù)據(jù)更多,從而使得大模型涌....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 12-28 11:47 ?1955次閱讀
1-2B參數(shù)規(guī)模大模型的使用心得

從Google多模態(tài)大模型看后續(xù)大模型應(yīng)該具備哪些能力

前段時(shí)間Google推出Gemini多模態(tài)大模型,展示了不凡的對(duì)話能力和多模態(tài)能力,其表現(xiàn)究竟如何呢....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 12-28 11:19 ?2445次閱讀
從Google多模態(tài)大模型看后續(xù)大模型應(yīng)該具備哪些能力

一文速覽大語言模型提示最新進(jìn)展

盡管基本的CoT提示策略在復(fù)雜推理任務(wù)中展示出了強(qiáng)大的能力,但它仍然面臨著一些問題,比如推理過程存在....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 12-27 14:19 ?1391次閱讀
一文速覽大語言模型提示最新進(jìn)展

高級(jí)檢索增強(qiáng)生成技術(shù)(RAG)全面指南

ChatGPT、Midjourney等生成式人工智能(GenAI)在文本生成、文本到圖像生成等任務(wù)中....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 12-25 15:16 ?7067次閱讀
高級(jí)檢索增強(qiáng)生成技術(shù)(RAG)全面指南

大模型微調(diào)數(shù)據(jù)選擇和構(gòu)造技巧

比如我們會(huì)經(jīng)常遇到下面幾種情況: 1.數(shù)據(jù)要不要都去標(biāo)注,標(biāo)的比較慢咋辦? 2.我已經(jīng)有一....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 12-20 14:39 ?1419次閱讀
大模型微調(diào)數(shù)據(jù)選擇和構(gòu)造技巧

Mistral中杯代碼能力完勝GPT-4,成本暴降2/3

這個(gè)開源模型盡管尺寸不大,小到足以在一臺(tái)內(nèi)存100GB以上的電腦上運(yùn)行,然而在某些基準(zhǔn)測(cè)試中卻能和G....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 12-18 16:55 ?1202次閱讀
Mistral中杯代碼能力完勝GPT-4,成本暴降2/3

論文遭首屆ICLR拒稿、代碼被過度優(yōu)化,word2vec作者Tomas Mikolov分享背后的故事

盡管 word2vec 是我被引用最多的論文,但我從未認(rèn)為它是我最有影響力的項(xiàng)目。實(shí)際上,word2....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 12-18 16:51 ?1507次閱讀
論文遭首屆ICLR拒稿、代碼被過度優(yōu)化,word2vec作者Tomas Mikolov分享背后的故事

什么是大模型的badcase?如何修復(fù)大模型的badcase呢?

首先我們定義什么是大模型的badcase,大模型badcase是指在應(yīng)用場(chǎng)景中,出現(xiàn)不符合預(yù)期的答復(fù)....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 12-14 16:40 ?4152次閱讀

對(duì)于大模型RAG技術(shù)的一些思考

大模型或者句向量在訓(xùn)練時(shí),使用的語料都是較為通用的語料。這導(dǎo)致了這些模型,對(duì)于垂直領(lǐng)域的知識(shí)識(shí)別是有....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 12-07 09:41 ?2103次閱讀
對(duì)于大模型RAG技術(shù)的一些思考

開源LLM在各種基準(zhǔn)上的代理能力

采用ChatGPT的企業(yè)可能會(huì)擔(dān)心API調(diào)用的巨大成本、服務(wù)中斷、數(shù)據(jù)所有權(quán)和隱私問題,以及其他不可....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 12-04 14:02 ?1872次閱讀
開源LLM在各種基準(zhǔn)上的代理能力

人工智能體在未來幾年如何顛覆軟件行業(yè)

Agent 不僅將改變?nèi)藗兣c計(jì)算機(jī)的互動(dòng)方式,還將顛覆軟件行業(yè),引發(fā)自從我們從鍵入命令到點(diǎn)擊圖標(biāo)以來....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 12-04 13:54 ?1478次閱讀

聚焦于用LLMs模擬國(guó)際沖突的研究

本實(shí)驗(yàn)旨在驗(yàn)證LLM在模擬復(fù)雜歷史事件方面的有效性。實(shí)驗(yàn)選用了OpenAI開發(fā)的GPT-4作為后端模....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 12-04 13:51 ?989次閱讀
聚焦于用LLMs模擬國(guó)際沖突的研究

淺談Q-Learning在Agent的應(yīng)用

經(jīng)典的文字模型我們已經(jīng)很熟悉了:訓(xùn)練時(shí),模型不停的預(yù)測(cè)下一個(gè) token 并與真實(shí)語料比較,直到模型....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 12-02 16:53 ?1605次閱讀
淺談Q-Learning在Agent的應(yīng)用

大模型對(duì)話系統(tǒng)的內(nèi)功與外功

Zero-shot Setting:在 O-Cue 中,由于單步指令較復(fù)雜(不要要進(jìn)行推理還要進(jìn)行回....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 12-01 16:32 ?1311次閱讀
大模型對(duì)話系統(tǒng)的內(nèi)功與外功

基于大語言模型辯論的多智能體協(xié)作推理分析

具體來說,我們以多項(xiàng)選擇的常識(shí)推理作為示例任務(wù),因?yàn)槌WR(shí)推理任務(wù)是一類可能性 (plausible)....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 11-29 15:45 ?2841次閱讀
基于大語言模型辯論的多智能體協(xié)作推理分析

大模型的Scaling Law的概念和推導(dǎo)

對(duì)于Decoder-only的模型,計(jì)算量(Flops), 模型參數(shù)量, 數(shù)據(jù)大小(token數(shù)),....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 11-29 14:28 ?4250次閱讀
大模型的Scaling Law的概念和推導(dǎo)

Long-Context下LLM模型架構(gòu)全面介紹

隨著ChatGPT的快速發(fā)展,基于Transformer的大型語言模型(LLM)為人工通用智能(AG....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 11-27 17:37 ?4127次閱讀
Long-Context下LLM模型架構(gòu)全面介紹

如何從大腦活動(dòng)中解碼自然語言呢?

語言不僅是人類交流的工具,更是思維和智能的基礎(chǔ)。
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 11-25 15:57 ?1943次閱讀
如何從大腦活動(dòng)中解碼自然語言呢?

為什么Agent落地這么難?AI最大賽道Agent機(jī)遇全解析

“如果一篇論文提出了某種不同的訓(xùn)練方法,OpenAI內(nèi)部會(huì)嗤之以鼻,認(rèn)為都是我們玩剩下的。但是當(dāng)新的....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 11-25 15:54 ?3044次閱讀
為什么Agent落地這么難?AI最大賽道Agent機(jī)遇全解析

被OpenAI帶火的Agent如何解放人力?

在歷史的長(zhǎng)河中,自動(dòng)化是人類技術(shù)發(fā)展的主要?jiǎng)恿Γ瑤椭祟悘膹?fù)雜、危險(xiǎn)、繁瑣的勞動(dòng)環(huán)境中解放出來。自早....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 11-25 15:23 ?2100次閱讀
被OpenAI帶火的Agent如何解放人力?

探討Sam 和 Ilya 的深層矛盾

有效加速主義 和 超級(jí)“愛”對(duì)齊 的理念沖突,以及一個(gè)變量:GPT-5 是數(shù)字生命,還是工具?
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 11-24 11:28 ?798次閱讀
探討Sam 和 Ilya 的深層矛盾

基于ICL范式的LLM的最高置信度預(yù)測(cè)方案

本文假設(shè)不同的ICL為L(zhǎng)LM提供了關(guān)于任務(wù)的不同知識(shí),導(dǎo)致對(duì)相同數(shù)據(jù)的不同理解和預(yù)測(cè)。因此,一個(gè)直接....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 11-24 11:20 ?2621次閱讀
基于ICL范式的LLM的最高置信度預(yù)測(cè)方案

用語言對(duì)齊多模態(tài)信息,北大騰訊等提出LanguageBind,刷新多個(gè)榜單

目前的 VL 預(yù)訓(xùn)練方法通常僅適用于視覺和語言模態(tài),而現(xiàn)實(shí)世界中的應(yīng)用場(chǎng)景往往包含更多的模態(tài)信息,如....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 11-23 15:46 ?1753次閱讀
用語言對(duì)齊多模態(tài)信息,北大騰訊等提出LanguageBind,刷新多個(gè)榜單

大型語言模型的邏輯推理能力探究

最新研究揭示,盡管大語言模型LLMs在語言理解上表現(xiàn)出色,但在邏輯推理方面仍有待提高。為此,研究者們....
的頭像 深度學(xué)習(xí)自然語言處理 發(fā)表于 11-23 15:05 ?2171次閱讀
大型語言模型的邏輯推理能力探究