91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人的大腦和自監(jiān)督學(xué)習(xí)模型的相似度有多高?

OpenCV學(xué)堂 ? 來源:新智元 ? 作者:新智元 ? 2022-08-19 09:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

【導(dǎo)讀】人的大腦和自監(jiān)督學(xué)習(xí)模型的相似度有多高?

我們都知道,人類的大腦90%都是自監(jiān)督學(xué)習(xí)的,生物會(huì)不斷對(duì)下一步發(fā)生的事情做出預(yù)測(cè)。

自監(jiān)督學(xué)習(xí),就是不需要外部干預(yù)也能做出決策。

只有少數(shù)情況我們會(huì)接受外部反饋,比如老師說:「你搞錯(cuò)了」。

而現(xiàn)在有學(xué)者發(fā)現(xiàn),大型語言模型的自監(jiān)督學(xué)習(xí)機(jī)制,像極了我們的大腦。

知名科普媒體Quanta Magazine近日?qǐng)?bào)道,越來越多的研究發(fā)現(xiàn),自監(jiān)督學(xué)習(xí)模型,尤其是大型語言模型的自學(xué)方式,與我們的大腦的學(xué)習(xí)模式非常類似。

cf1e76c0-1f09-11ed-ba43-dac502259ad0.png

過去常見的AI系統(tǒng)都是使用大量標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練的。

例如,圖像可能被標(biāo)記為「虎斑貓」或「虎貓」,用以訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)來正確區(qū)分虎斑和虎。

cf336a6c-1f09-11ed-ba43-dac502259ad0.png

這種「自監(jiān)督」訓(xùn)練需要人工費(fèi)力地標(biāo)記數(shù)據(jù),而神經(jīng)網(wǎng)絡(luò)通常會(huì)走捷徑,學(xué)習(xí)將標(biāo)簽與最少、有時(shí)甚至是膚淺的信息聯(lián)系起來。

例如,神經(jīng)網(wǎng)絡(luò)可能會(huì)使用草的存在來識(shí)別奶牛的照片,因?yàn)槟膛MǔJ窃谔镆爸信臄z的。

加州大學(xué)伯克利分校的計(jì)算機(jī)科學(xué)家阿列克謝·埃弗羅斯 (Alexei Efros) 說:

我們正在培養(yǎng)的算法,就像是一整個(gè)學(xué)期都沒來上課的本科生,雖然他們并沒有系統(tǒng)學(xué)習(xí)這些材料,但他們?cè)诳荚囍斜憩F(xiàn)出色。

此外,對(duì)于對(duì)動(dòng)物智能和機(jī)器智能的交叉感興趣的研究人員來說,這種「監(jiān)督學(xué)習(xí)」可能僅限于它對(duì)生物大腦的揭示。

許多動(dòng)物,包括人類不使用標(biāo)記數(shù)據(jù)集來學(xué)習(xí)。在大多數(shù)情況下,他們自己探索環(huán)境,并且通過這樣做,他們對(duì)世界獲得了豐富而深刻的理解。

現(xiàn)在,一些計(jì)算神經(jīng)科學(xué)家已經(jīng)開始探索使用很少或沒有人工標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練的神經(jīng)網(wǎng)絡(luò)。

最近的研究結(jié)果表明,使用自我監(jiān)督學(xué)習(xí)模型構(gòu)建的動(dòng)物視覺和聽覺系統(tǒng)的計(jì)算模型比監(jiān)督學(xué)習(xí)模型更接近大腦功能。

對(duì)一些神經(jīng)科學(xué)家來說,人工神經(jīng)網(wǎng)絡(luò)似乎開始揭示用大腦來類比機(jī)器學(xué)習(xí)的途徑。

有缺陷的監(jiān)督

大約10年前,受人工神經(jīng)網(wǎng)絡(luò)啟發(fā)的大腦模型開始出現(xiàn),同時(shí)一個(gè)名為AlexNet的神經(jīng)網(wǎng)絡(luò)徹底改變了對(duì)未知圖像進(jìn)行分類的任務(wù)。

cf4c75de-1f09-11ed-ba43-dac502259ad0.png

這項(xiàng)成果在Alex Krizhevsky、Ilya Sutskever和Geoffrey E. Hinton 的論文「ImageNet Classification with Deep Convolutional Neural Networks」中發(fā)表。

cf5ed044-1f09-11ed-ba43-dac502259ad0.png

論文地址:https://dl.acm.org/doi/10.1145/3065386

與所有神經(jīng)網(wǎng)絡(luò)一樣,該網(wǎng)絡(luò)由多層人工神經(jīng)元組成,其中不同神經(jīng)元之間連接的權(quán)重不同。

如果神經(jīng)網(wǎng)絡(luò)未能正確分類圖像,學(xué)習(xí)算法會(huì)更新神經(jīng)元之間連接的權(quán)重,以降低在下一輪訓(xùn)練中錯(cuò)誤分類的可能性。

該算法重復(fù)此過程多次,調(diào)整權(quán)重,直到網(wǎng)絡(luò)的錯(cuò)誤率低到可以接受的程度。

之后,神經(jīng)科學(xué)家使用AlexNet開發(fā)了第一個(gè)靈長類視覺系統(tǒng)(Primate Visual System)的計(jì)算模型。

cf70fd50-1f09-11ed-ba43-dac502259ad0.png

當(dāng)猴子和人工神經(jīng)網(wǎng)絡(luò)顯示相同的圖像時(shí),真實(shí)神經(jīng)元和人工神經(jīng)元的活動(dòng)顯示出類似的反應(yīng)。

在聽覺和氣味檢測(cè)的人工模型上也取得了相似的結(jié)果。

但隨著該領(lǐng)域的發(fā)展,研究人員意識(shí)到自監(jiān)督訓(xùn)練的局限性。

2017年,德國蒂賓根大學(xué)的計(jì)算機(jī)科學(xué)家Leon Gatys和他的同事拍攝了一張福特T型車的照片,然后在照片上覆蓋了豹皮圖案。

人工智能神經(jīng)網(wǎng)絡(luò)將原始圖像正確分類為Model T,但將修改后的圖像視為豹子。

原因是它只專注于圖像紋理,不了解汽車(或豹子)的形狀。

自監(jiān)督學(xué)習(xí)模型旨在避免此類問題。

瑞士巴塞爾弗里德里希·米歇爾生物醫(yī)學(xué)研究所的計(jì)算神經(jīng)科學(xué)家弗里德曼·岑克 (Friedemann Zenke) 說,

在這種方法中,人類不會(huì)標(biāo)記數(shù)據(jù),相反,標(biāo)簽來自數(shù)據(jù)本身。自監(jiān)督算法本質(zhì)上是在數(shù)據(jù)中創(chuàng)建空白,并要求神經(jīng)網(wǎng)絡(luò)填補(bǔ)空白。

例如,在所謂的大型語言模型中,訓(xùn)練算法將向神經(jīng)網(wǎng)絡(luò)顯示句子的前幾個(gè)單詞,并要求它預(yù)測(cè)下一個(gè)單詞。

當(dāng)使用從互聯(lián)網(wǎng)收集的大量文本進(jìn)行訓(xùn)練時(shí),該模型似乎可以學(xué)習(xí)語言的句法結(jié)構(gòu),展示出令人印象深刻的語言能力——所有這些都沒有外部標(biāo)簽或監(jiān)督。

計(jì)算機(jī)視覺方面也正在進(jìn)行類似的努力。

2021年底,何愷明及其同事展示了著名的掩碼自動(dòng)編碼器研究「Masked Auto-Encoder」(MAE)。

cfba4e60-1f09-11ed-ba43-dac502259ad0.png

論文地址:https://arxiv.org/abs/2111.06377

MAE將未掩碼部分轉(zhuǎn)換為潛在表示——壓縮的數(shù)學(xué)描述,其中包含有關(guān)對(duì)象的重要信息。

在圖像的情況下,潛在表示可能是一種數(shù)學(xué)描述,其中包括圖像中對(duì)象的形狀。然后解碼器將這些表示轉(zhuǎn)換回完整的圖像。

cfcc1604-1f09-11ed-ba43-dac502259ad0.png

大腦也是「自監(jiān)督」的

在這樣的系統(tǒng)中,一些神經(jīng)科學(xué)家認(rèn)為,我們的大腦實(shí)際上也是自監(jiān)督學(xué)習(xí)的。

麥吉爾大學(xué)和魁北克人工智能研究所(Mila)的計(jì)算神經(jīng)科學(xué)家布萊克-理查茲(Blake Richards)說:「我認(rèn)為毫無疑問,大腦所做的90%都是自監(jiān)督學(xué)習(xí)。」

生物大腦被認(rèn)為是在不斷地預(yù)測(cè),例如,一個(gè)物體在移動(dòng)時(shí)的未來位置,或一句話中的下一個(gè)詞,就像自我監(jiān)督學(xué)習(xí)算法試圖預(yù)測(cè)圖像或一段文字的間隙一樣。

理查茲和他的團(tuán)隊(duì)創(chuàng)建了一個(gè)自監(jiān)督模型,暗示了一個(gè)答案。他們訓(xùn)練了一個(gè)結(jié)合兩種不同神經(jīng)網(wǎng)絡(luò)的人工智能。

第一個(gè),稱為ResNet架構(gòu),是為處理圖像而設(shè)計(jì)的;第二個(gè),稱為遞歸網(wǎng)絡(luò),可以跟蹤先前的輸入序列,對(duì)下一個(gè)預(yù)期輸入進(jìn)行預(yù)測(cè)。

為了訓(xùn)練聯(lián)合AI,該團(tuán)隊(duì)從一連串的視頻開始,比如說10幀,讓ResNet逐一處理。

然后,遞歸網(wǎng)絡(luò)預(yù)測(cè)了第11幀的潛在表示,而不是簡單地匹配前10幀。自監(jiān)督學(xué)習(xí)算法將預(yù)測(cè)值與實(shí)際值進(jìn)行比較,并指示神經(jīng)網(wǎng)絡(luò)更新其權(quán)重,以使預(yù)測(cè)效果更好。

為了進(jìn)一步測(cè)試,研究人員向AI展示了一組視頻,西雅圖艾倫腦科學(xué)研究所的研究人員以前曾向小鼠展示過這些視頻。與靈長類動(dòng)物一樣,小鼠的大腦區(qū)域?qū)iT用于靜態(tài)圖像和運(yùn)動(dòng)。艾倫研究人員在小鼠觀看視頻時(shí)記錄了小鼠視覺皮層的神經(jīng)活動(dòng)。

理查茲的團(tuán)隊(duì)發(fā)現(xiàn)了AI和活體大腦對(duì)視頻的反應(yīng)方式的相似之處。在訓(xùn)練過程中,人工神經(jīng)網(wǎng)絡(luò)中的一條途徑變得與小鼠大腦的腹側(cè)、物體探測(cè)區(qū)域更加相似,而另一條途徑則變得與注重運(yùn)動(dòng)的背側(cè)區(qū)域相似。

這些結(jié)果表明,我們的視覺系統(tǒng)有兩條專門的通路,因?yàn)樗鼈冇兄陬A(yù)測(cè)視覺的未來;單一的通路是不夠好的。

人類聽覺系統(tǒng)的模型講述了一個(gè)類似的故事。

6月,由Meta AI的研究科學(xué)家Jean-Rémi King領(lǐng)導(dǎo)的團(tuán)隊(duì)訓(xùn)練了一個(gè)名為Wav2Vec 2.0的人工智能,它使用一個(gè)神經(jīng)網(wǎng)絡(luò)將音頻轉(zhuǎn)化為潛在的表征。研究人員對(duì)這些表征中的一些進(jìn)行了屏蔽,然后將其送入另一個(gè)稱為轉(zhuǎn)化器的組件神經(jīng)網(wǎng)絡(luò)。

在訓(xùn)練過程中,轉(zhuǎn)化器預(yù)測(cè)被屏蔽的信息。在這個(gè)過程中,整個(gè)人工智能學(xué)會(huì)了將聲音轉(zhuǎn)化為潛在的表征,同樣,不需要標(biāo)簽。

該團(tuán)隊(duì)使用了大約600小時(shí)的語音數(shù)據(jù)來訓(xùn)練網(wǎng)絡(luò)。「這大約是一個(gè)孩子在前兩年的經(jīng)驗(yàn)中得到的東西。」金說。

Meta AI的讓-雷米-金幫助訓(xùn)練了一種人工智能,它以模仿大腦的方式處理音頻--部分是通過預(yù)測(cè)下一步應(yīng)該發(fā)生什么

一旦該系統(tǒng)被訓(xùn)練出來,研究人員給它播放英語、法語和普通話的有聲讀物部分,然后將AI的表現(xiàn)與412人的數(shù)據(jù)進(jìn)行了比較(這些人都是以這三種語言為母語的人),他們?cè)诤舜殴舱駫呙鑼?duì)自己的大腦進(jìn)行成像時(shí),聽了同樣長的一段音頻。

結(jié)果顯示,盡管fMRI圖像有噪音且分辨率不高,但AI神經(jīng)網(wǎng)絡(luò)和人類的大腦「不僅相互關(guān)聯(lián),而且還以系統(tǒng)的方式關(guān)聯(lián)」。

AI早期層的活動(dòng)與初級(jí)聽覺皮層的活動(dòng)一致,而AI最深層的活動(dòng)則與大腦中較高層的活動(dòng)相一致,比如前額葉皮層。

「這是非常漂亮的數(shù)據(jù),雖然算不上是決定性的,但算得上是令人信服的證據(jù),表明我們學(xué)習(xí)語言的方式在很大程度上是在預(yù)測(cè)接下來會(huì)說的話?!?/p>

有人不同意:模擬大腦?模型、算法都差的遠(yuǎn)

當(dāng)然,也并非所有人都認(rèn)同這種說法。

MIT的計(jì)算神經(jīng)科學(xué)家喬希-麥克德莫特(Josh McDermott)曾使用監(jiān)督和自監(jiān)督學(xué)習(xí)研究視覺和聽覺的模型。他的實(shí)驗(yàn)室設(shè)計(jì)了一些人工合成的音頻和視覺信號(hào),對(duì)于人類來說,這些信號(hào)只是難以捉摸的噪音。

然而,對(duì)于人工神經(jīng)網(wǎng)絡(luò)來說,這些信號(hào)似乎與真實(shí)語言和圖像沒有區(qū)別。這表明,在神經(jīng)網(wǎng)絡(luò)的深層形成的表征,即使是自監(jiān)督學(xué)習(xí),也與我們大腦中的表征不一樣。

麥克德莫特說:「這些自我監(jiān)督的學(xué)習(xí)方法是一種進(jìn)步,因?yàn)槟隳軌驅(qū)W習(xí)能夠支持很多識(shí)別行為的表征,而不需要所有標(biāo)簽。但仍然有很多監(jiān)督模型的特征?!?/p>

算法本身也需要更多改進(jìn)。比如在Meta AI的Wav2Vec 2.0模型中,AI只預(yù)測(cè)了幾十毫秒的聲音的潛在表征,比人發(fā)出一個(gè)噪音音節(jié)的時(shí)間還要短,更不用說預(yù)測(cè)一個(gè)詞了。

要真正實(shí)現(xiàn)讓AI模型和人類大腦相類似,我們還有很多事情要做,金說。

如果目前發(fā)現(xiàn)的大腦和自我監(jiān)督學(xué)習(xí)模型之間的相似性在其他感官任務(wù)中也成立,將更有力地表明,無論我們的大腦有什么神奇的能力,都需要以某種形式進(jìn)行自監(jiān)督學(xué)習(xí)。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39768

    瀏覽量

    301371
  • 人工智能
    +關(guān)注

    關(guān)注

    1817

    文章

    50095

    瀏覽量

    265306
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3752

    瀏覽量

    52101

原文標(biāo)題:人腦90%都是自監(jiān)督學(xué)習(xí),AI大模型離模擬大腦還有多遠(yuǎn)?

文章出處:【微信號(hào):CVSCHOOL,微信公眾號(hào):OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    算法工程師需要具備哪些技能?

    :自動(dòng)化任務(wù)(如數(shù)據(jù)預(yù)處理、模型訓(xùn)練調(diào)度)。Git版本控制:團(tuán)隊(duì)協(xié)作開發(fā)(如分支管理、代碼合并)。 機(jī)器學(xué)習(xí)監(jiān)督學(xué)習(xí):線性回歸、邏輯回歸、決策樹、SVM等。無監(jiān)督學(xué)習(xí):聚類(K-Mea
    發(fā)表于 02-27 10:53

    強(qiáng)化學(xué)習(xí)會(huì)讓自動(dòng)駕駛模型學(xué)習(xí)更快嗎?

    是一種讓機(jī)器通過“試錯(cuò)”學(xué)會(huì)決策的辦法。與監(jiān)督學(xué)習(xí)不同,監(jiān)督學(xué)習(xí)是有人提供示范答案,讓模型去模仿;而強(qiáng)化學(xué)習(xí)不會(huì)把每一步的“正確答案”都告訴你,而是把環(huán)境、動(dòng)作和結(jié)果連起來,讓機(jī)器自己
    的頭像 發(fā)表于 01-31 09:34 ?641次閱讀
    強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>會(huì)讓自動(dòng)駕駛<b class='flag-5'>模型</b><b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    文心大模型5.0正式版上線

    今天,在百文心Moment大會(huì)現(xiàn)場(chǎng),文心大模型5.0正式版上線。
    的頭像 發(fā)表于 01-23 16:48 ?1286次閱讀

    大曉機(jī)器發(fā)布開悟3.0,國產(chǎn)世界模型讓機(jī)器擁有“超級(jí)大腦

    機(jī)器的使命就是讓每個(gè)機(jī)器都擁有一個(gè)聰明的大腦,洞察萬物,學(xué)會(huì)與視覺精準(zhǔn)交互。 ? 在此背景下,大曉機(jī)器憑借其原創(chuàng)的“世界模型”技術(shù)體系
    的頭像 發(fā)表于 12-25 09:25 ?2515次閱讀
    大曉機(jī)器<b class='flag-5'>人</b>發(fā)布開悟3.0,國產(chǎn)世界<b class='flag-5'>模型</b>讓機(jī)器<b class='flag-5'>人</b>擁有“超級(jí)<b class='flag-5'>大腦</b>”

    構(gòu)建生態(tài)新范式!開源大腦+小腦,地平線發(fā)布兩款具身智能模型

    在2025地平線技術(shù)生態(tài)大會(huì)上,地平線創(chuàng)始兼CEO余凱正式發(fā)布兩大具身智能開源模型——具身智能小腦基座模型HoloMotion和具身智能大腦基座
    的頭像 發(fā)表于 12-16 15:01 ?1.2w次閱讀
    構(gòu)建生態(tài)新范式!開源<b class='flag-5'>大腦</b>+小腦,地平線發(fā)布兩款具身智能<b class='flag-5'>模型</b>

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課(11大系列課程,共5000+分鐘)

    、GPU加速訓(xùn)練(可選) 雙軌教學(xué):傳統(tǒng)視覺算法+深度學(xué)習(xí)方案全覆蓋 輕量化部署:8.6M超輕OCR模型,適合嵌入式設(shè)備集成 無監(jiān)督學(xué)習(xí):無需缺陷樣本即可訓(xùn)練高精度檢測(cè)模型 持續(xù)更新:
    發(fā)表于 12-04 09:28

    【團(tuán)購】獨(dú)家全套珍藏!龍哥LabVIEW視覺深度學(xué)習(xí)實(shí)戰(zhàn)課程(11大系列課程,共5000+分鐘)

    、GPU加速訓(xùn)練(可選) 雙軌教學(xué):傳統(tǒng)視覺算法+深度學(xué)習(xí)方案全覆蓋 輕量化部署:8.6M超輕OCR模型,適合嵌入式設(shè)備集成 無監(jiān)督學(xué)習(xí):無需缺陷樣本即可訓(xùn)練高精度檢測(cè)模型 持續(xù)更新:
    發(fā)表于 12-03 13:50

    超能同事上線:人形機(jī)器如何重塑未來工作場(chǎng)景?

    以富唯智能為代表的創(chuàng)新企業(yè),通過“知識(shí)驅(qū)動(dòng)的具身智能工業(yè)機(jī)器技術(shù)框架”,給出了極具前瞻性的解決方案。該框架融合研一體化控制器、零代碼編程與任務(wù)規(guī)劃大模型GRID,構(gòu)建出“大腦、小腦
    的頭像 發(fā)表于 11-11 17:41 ?951次閱讀
    超能同事上線:人形機(jī)器<b class='flag-5'>人</b>如何重塑未來工作場(chǎng)景?

    自動(dòng)駕駛中常提的“強(qiáng)化學(xué)習(xí)”是個(gè)啥?

    下,就是一個(gè)智能體在環(huán)境里行動(dòng),它能觀察到環(huán)境的一些信息,并做出一個(gè)動(dòng)作,然后環(huán)境會(huì)給出一個(gè)反饋(獎(jiǎng)勵(lì)或懲罰),智能體的目標(biāo)是把長期得到的獎(jiǎng)勵(lì)累積到最大。和監(jiān)督學(xué)習(xí)不同,強(qiáng)化學(xué)習(xí)沒有一一對(duì)應(yīng)的“正確答案”給它看,而是靠與環(huán)境交互、自我探索來發(fā)現(xiàn)
    的頭像 發(fā)表于 10-23 09:00 ?662次閱讀
    自動(dòng)駕駛中常提的“強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>”是個(gè)啥?

    機(jī)器芯片:智能機(jī)器的“大腦”與未來趨勢(shì)

    機(jī)器技術(shù)的快速發(fā)展離不開核心硬件——機(jī)器芯片。作為機(jī)器的“大腦”,芯片決定了機(jī)器的計(jì)算能力、響應(yīng)速度和智能化水平。隨著人工智能(AI
    的頭像 發(fā)表于 07-31 13:43 ?1144次閱讀

    任正非說 AI已經(jīng)確定是第四次工業(yè)革命 那么如何從容地加入進(jìn)來呢?

    的基本理論。了解監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)的基本原理。例如,在監(jiān)督學(xué)習(xí)中,理解如何通過標(biāo)注數(shù)據(jù)來訓(xùn)練模型進(jìn)行分類或回歸任務(wù),像通過大量的
    發(fā)表于 07-08 17:44

    使用MATLAB進(jìn)行無監(jiān)督學(xué)習(xí)

    監(jiān)督學(xué)習(xí)是一種根據(jù)未標(biāo)注數(shù)據(jù)進(jìn)行推斷的機(jī)器學(xué)習(xí)方法。無監(jiān)督學(xué)習(xí)旨在識(shí)別數(shù)據(jù)中隱藏的模式和關(guān)系,無需任何監(jiān)督或關(guān)于結(jié)果的先驗(yàn)知識(shí)。
    的頭像 發(fā)表于 05-16 14:48 ?1436次閱讀
    使用MATLAB進(jìn)行無<b class='flag-5'>監(jiān)督學(xué)習(xí)</b>

    模型時(shí)代的深度學(xué)習(xí)框架

    作者:算力魔方創(chuàng)始/英特爾創(chuàng)新大使劉力 在 CNN時(shí)代 ,AI模型的參數(shù)規(guī)模都在百萬級(jí)別,僅需在單張消費(fèi)類顯卡上即可完成訓(xùn)練。例如,以業(yè)界知名的CNN模型: ResNet50 為例,模型
    的頭像 發(fā)表于 04-25 11:43 ?836次閱讀
    大<b class='flag-5'>模型</b>時(shí)代的深度<b class='flag-5'>學(xué)習(xí)</b>框架

    具身智能工業(yè)機(jī)器:引爆制造業(yè)‘進(jìn)化’革命

    具身智能工業(yè)機(jī)器:引爆制造業(yè)‘進(jìn)化’革命 在工業(yè)4.0浪潮席卷全球的今天,制造業(yè)正經(jīng)歷從“自動(dòng)化”到“智能化”的質(zhì)變。作為這場(chǎng)變革的核心驅(qū)動(dòng)力,具身智能工業(yè)機(jī)器以其自主感知、學(xué)習(xí)
    的頭像 發(fā)表于 04-17 13:49 ?975次閱讀
    具身智能工業(yè)機(jī)器<b class='flag-5'>人</b>:引爆制造業(yè)‘<b class='flag-5'>自</b>進(jìn)化’革命

    詳解 LLM 推理模型的現(xiàn)狀

    2025年,如何提升大型語言模型(LLM)的推理能力成了最熱門的話題之一,大量優(yōu)化推理能力的新策略開始出現(xiàn),包括擴(kuò)展推理時(shí)間計(jì)算、運(yùn)用強(qiáng)化學(xué)習(xí)、開展監(jiān)督微調(diào)和進(jìn)行提煉等。本文將深入探討LLM推理優(yōu)化
    的頭像 發(fā)表于 04-03 12:09 ?1611次閱讀
    詳解 LLM 推理<b class='flag-5'>模型</b>的現(xiàn)狀