91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

現(xiàn)場Live震撼!OmAgent框架強勢開源!行業(yè)應(yīng)用已全面開花

科技見聞網(wǎng) ? 來源:科技見聞網(wǎng) ? 作者:科技見聞網(wǎng) ? 2024-07-08 15:36 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

第一個提出自動駕駛并進行研發(fā)的公司是Google,巧的是,它發(fā)布的Transformer模型也為今天的大模型發(fā)展奠定了基礎(chǔ)。

自動駕駛已經(jīng)完成從概念到現(xiàn)實的華麗轉(zhuǎn)變,徹底重塑了傳統(tǒng)駕車方式,而大模型行業(yè)正在經(jīng)歷的,恰如自動駕駛技術(shù)發(fā)展的傳奇征程——

最頂尖的研發(fā)團隊競相投身其中、不斷加速搶跑的技術(shù)產(chǎn)品創(chuàng)新,以及持續(xù)被推向極致的用戶體驗。

在大模型賽道中,有一家企業(yè)始終以領(lǐng)先的身位,推動著行業(yè)邊界向前拓展。

為什么是聯(lián)匯科技?

當(dāng)行業(yè)剛開始關(guān)注大模型,他們已經(jīng)錨定多模態(tài)大模型,并高分取得了工信部大模型檢測的001號證書;

去年,當(dāng)人們關(guān)注“百模大戰(zhàn)”,他們不僅發(fā)布了自研OmModel多模態(tài)大模型的V3版本,更發(fā)布了國內(nèi)首批大模型驅(qū)動的自主智能體應(yīng)用;

今年,世界人工智能大會期間,他們再次發(fā)布一系列技術(shù)成果,將大模型技術(shù)產(chǎn)品推向更深、更廣的應(yīng)用層面。

聯(lián)匯科技技術(shù)團隊有著極強的前瞻思維,這與他們的首席科學(xué)家趙天成博士緊密相關(guān),這位師從國際AI領(lǐng)域頂尖學(xué)者的Maxine Eskenazi,在CMU LTI (卡內(nèi)基梅隆大學(xué)語言技術(shù)研究所)完成碩博連讀的天才少年,不僅稱得上「AI 名門正派」,更難得的是,趙天成在技術(shù)發(fā)展和戰(zhàn)略規(guī)劃方面有著獨到見解。

趙天成博士指出,在AI主導(dǎo)的第四次工業(yè)革命浪潮中,自主智能將成為變革的核心變量。隨著人類第一次接觸并掌握創(chuàng)造智慧的奧秘,我們將目睹一個新時代的到來——在這個時代中,機器、軟件甚至系統(tǒng),將被賦予前所未有的自主決策能力,自動化將廣泛應(yīng)用于各個工作領(lǐng)域,開啟前所未有的效率和創(chuàng)新。

2024年是智能體元年。

我們正處于L2級別,并逐步向L3、L4邁進的過程中。

wKgaomaLlsaAAQuwAAS_Zh71-F8853.jpg

OmAgent來了!

WAIC期間,聯(lián)匯科技正式發(fā)布第二代多模態(tài)智能體 OmAgent。

去年同期,聯(lián)匯科技搶跑行業(yè),率先發(fā)布了國內(nèi)第一批由多模態(tài)大模型驅(qū)動的自主智能體,那么,今年聯(lián)匯的第二代多模態(tài)智能體OmAgent有哪些驚喜?

首先是感知模塊全新升級。

隨著AI應(yīng)用落地,聯(lián)匯科技發(fā)現(xiàn)盡管萬物感知模型在智能識別和處理方面具有巨大潛力,但受限于推理速度的瓶頸。相較于小型模型在推理速度上的優(yōu)勢,Idealab的G-DINO和聯(lián)匯科技的OmDet在速度上的表現(xiàn)都不盡如人意,這極大地限制了它們在邊緣計算設(shè)備上的應(yīng)用。

聯(lián)匯科技最新發(fā)布的OmDet V2,實現(xiàn)萬物感知的全面加速,從底層重新構(gòu)建了萬物感知的模塊,推出了EFH高性能融合頭,包含了一系列模型加速的優(yōu)化技術(shù)、語言向量緩存、輕量化特征編碼與解碼等技術(shù),得益于EFH對每一個環(huán)節(jié)的機制優(yōu)化,相較于G-DINO和聯(lián)匯的第一代感知模型,OmDet V2在每一個環(huán)節(jié)上都實現(xiàn)了20倍以上的速度提高。

wKgaomaLlseAChUWAAMzcqs-cOk946.jpgwKgZomaLlsiAPRX3AAKp7nj50u8363.jpg

這樣的提升意味著OmDet V2正在打開未來邊緣AI與具身智能全新可能。

憑借OmDet V2的推理速度和精確分析能力,單個GPU就可以承載對500路視頻流的實時萬物感知分析,這是對技術(shù)性能的新一次刷新。同時,這也意味著打開邊緣AI的可能,OmDet V2讓萬物感知模型擺脫云端束縛,走向邊緣設(shè)備,為人形機器人、家庭智算中心等前沿應(yīng)用提供了強大的智能支持。

這種創(chuàng)新不僅重新定義了大模型產(chǎn)品的開發(fā)思維,更為構(gòu)建一個更實時、更安全、更注重隱私的大模型應(yīng)用環(huán)境奠定了基礎(chǔ)。

第二是思考決策能力的提升。

思考是多模態(tài)智能體的核心,只有具備了思考能力,智能體才能夠依據(jù)感知和記憶結(jié)果做決策判斷和自主行為,成為真正的助手。但現(xiàn)有多模態(tài)思考模型存在著明顯局限,比如只能基于單張圖片進行思考和決策、無法對多個關(guān)聯(lián)圖片之間進行理解處理等。

為了解決這一問題,聯(lián)匯科技全新發(fā)布了第二代思考大模型OmChat V2,一個基于多模態(tài)模型原生預(yù)訓(xùn)練的生成大模型,不僅提供8B、40B、60B多個版本,適配不同需求。更能非常好地支持視頻、圖文混合、文字等多種復(fù)雜輸入,完美適配智能體決策過程中所需要的復(fù)雜場景。

wKgaomaLlsmAHeiTAAOTgvBWarQ326.jpg

OmChat V2支持高達512K、50萬的上下文長度,折合視頻長度30分鐘,僅次于Google Gemin-1.5,并遠超GPT-4o及微軟LLaVa-1.5。

wKgZomaLlsmAIFcoAAKb0Ne-svU263.jpg

OmChat V2在Mantis-Eval、Q-Bench、MileBench Real、MVBench等測試中平均性能均在行業(yè)前列。

chaijie_default.png

更簡單、直接的說法是,OmChat V2不僅能夠看準(zhǔn)時序關(guān)系,更能夠看懂多圖關(guān)系。

wKgZomaLlsuAELgOABu9PdIUsC0731.jpg

△時序關(guān)系判斷

wKgaomaLlsyAHzyCAD59aphezAM603.jpg

△多圖關(guān)系理解

為了大模型與智能體技術(shù)能夠真正的普惠落地,聯(lián)匯科技還率先完成了與多款國產(chǎn)GPU的適配與性能驗證,通過高效稀疏激活、動態(tài)專家方法,提升推理效率20倍,OmOS大模型運行平臺也是首個支持多地域大模型分布式推理平臺,異構(gòu)九頭蛇推理能夠提升算力利用率3倍。

wKgZomaLls6AKoUMAAN3Xc30PqM066.jpg

就此,聯(lián)匯科技正式解鎖海量行業(yè)應(yīng)用場景。

wKgaomaLls-AcVpCADiYHpODwkI773.jpg

△自動化體育解說

wKgZomaLltGAeSaZABwqbppMKOE213.jpg

△影視劇內(nèi)容解構(gòu)

wKgaomaLltOAQYTFAClYj2jbDMY582.jpg

△工業(yè)智能助手

OmAgent框架全面開源!

聯(lián)匯科技在多模態(tài)智能體技術(shù)上已經(jīng)取得了多項突破性成果,對于是否開源的問題,趙天成博士始終從更宏觀、更長遠的角度看待。

他表示:我們選擇將OmAgent框架全面開源,是因為想要鼓勵更多企業(yè)、開發(fā)者參與,通過知識共享和技術(shù)創(chuàng)新構(gòu)建一個更加開放、更加豐富的智能體生態(tài),進而能夠帶動整個行業(yè)更好的發(fā)展。

OmAgent框架不僅包含了感知、記憶、決策等綜合模塊,并整合融入OmDet、OmChat等多個不同類型的大模型能力,極大方便企業(yè)與開發(fā)者的應(yīng)用開發(fā),推動智能體技術(shù)向更深層次、更廣領(lǐng)域的賦能。

wKgZomaLltWAAABPAAO8GWOZYXo117.jpg

通過OmAgent,能夠快速、準(zhǔn)確解決各類場景下的復(fù)雜問題。比如,從影視劇中總找出某個問題的答案,盡管影片沒有直接呈現(xiàn)答案,但是OmAgent依然可以通過對全片的整體理解,掌握劇情并根據(jù)原片內(nèi)容進行思考、作答。

Step 01

wKgaomaLltaAQ0B9AAsImnrYKgU076.jpg

Step 02

wKgZomaLlteAWsAFABuZ0ZuABu4615.jpg

Step 03

wKgZomaLltiAbyagABn9l5t-Hy4663.jpg

Step 04

wKgaomaLltqAQU-BACoajkXLoCI975.jpg

目前,OmAgent框架已全面開源。

wKgaomaLltuAZdX6AABRZsVtmCE703.jpg

在WAIC,聯(lián)匯科技對OmAgent做了完整的現(xiàn)場互動演示。

為了讓智能體更快地融入日常工作與生活,聯(lián)匯正式發(fā)布了Om多模態(tài)智能體全新產(chǎn)品系列——空間運營智能體、知識服務(wù)智能體,為行業(yè)用戶打造“超級助手”。

空間運營智能體是通過攝像頭、拾音器等物聯(lián)設(shè)備以及接入的各類數(shù)據(jù)源對空間物理環(huán)境全面感知,深度融入大模型的思考能力,準(zhǔn)確處理、分析多模態(tài)數(shù)據(jù)信息,洞察運營中的關(guān)鍵問題、潛在機會,基于智能體角色設(shè)定的目標(biāo)任務(wù),結(jié)合記憶和學(xué)習(xí),實現(xiàn)面向物理空間的思考、規(guī)劃與決策,成為用戶進行空間管理的得力助手。

wKgaomaLlt-AaVqBAAOpYrDyyBY885.jpg

應(yīng)用范圍覆蓋線下零售、營業(yè)廳、機房、產(chǎn)業(yè)園區(qū)、文旅景區(qū)、城市街區(qū)等各類單體空間、連鎖環(huán)境,實現(xiàn)對空間的精細化運營與管理。

wKgZomaLluKAfIazAACf1LbPWLw032.jpg

相較于空間運營智能體對現(xiàn)實物理世界的運營管理,知識服務(wù)智能體更強調(diào)對數(shù)字世界的管理和對數(shù)字資產(chǎn)的價值挖掘。

wKgaomaLluOAd-vkAAKdQWUMTdk646.jpg

它可以作為專為行業(yè)定制的人工智能助手,廣泛應(yīng)用于辦公、生產(chǎn)、運維、營銷、培訓(xùn)、客服等場景,將企業(yè)、組織和個人在特定領(lǐng)域內(nèi)積累的經(jīng)驗、技術(shù)、業(yè)務(wù)流程等轉(zhuǎn)化為結(jié)構(gòu)化的行業(yè)專用知識,通過知識管理、知識檢索、知識問答與知識生成等核心能力,提升用戶決策質(zhì)量、優(yōu)化操作流程,最終將無形的知識資產(chǎn)轉(zhuǎn)化為有形的生產(chǎn)力。

2024無疑將是智能體元年,智能體也正在成為大模型落地的最佳途徑。

關(guān)于未來,趙天成博士透露了他的預(yù)判——

智能體的未來不是單打獨斗,而是大模型的組合拳,尤其是當(dāng)多種類大模型協(xié)同作戰(zhàn)時,它們能釋放出遠超單一大語言模型的潛力。

智能體將打破傳統(tǒng)聊天機器人的界限,它們的應(yīng)用形態(tài)將經(jīng)歷一場革新,變得更加多樣化和深入人類活動的各個方面。

隨著邊緣AI的興起,大模型將不再局限于大型服務(wù)器,它們將走向邊緣,被嵌入到眾多小型設(shè)備中,實現(xiàn)真正的無處不在。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 框架
    +關(guān)注

    關(guān)注

    0

    文章

    404

    瀏覽量

    18446
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    4222

    瀏覽量

    46196
  • 自動駕駛
    +關(guān)注

    關(guān)注

    794

    文章

    14893

    瀏覽量

    180101
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3662

    瀏覽量

    5197
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    開源到底穩(wěn)不穩(wěn)?真正跑過工業(yè)現(xiàn)場的人才有答案

    在很多工程師的認知里,開源軟件一直帶著一種“不夠可靠”的標(biāo)簽。 但過去幾年,行業(yè)里發(fā)生了一件很微妙的變化: 越來越多真正落地的項目,底層都是開源。 這件事可能會顛覆你原來的想法。 1、開源
    的頭像 發(fā)表于 01-05 16:12 ?43次閱讀

    開源鴻蒙行業(yè)論壇成功舉辦

    11月28日,開源鴻蒙行業(yè)論壇在深圳隆重舉行。此次論壇聚焦開源鴻蒙在交通、醫(yī)療、家居、建筑、工業(yè)等多個領(lǐng)域的落地實踐,眾多行業(yè)領(lǐng)軍企業(yè)代表齊聚一堂,共繪
    的頭像 發(fā)表于 12-04 16:58 ?929次閱讀

    誠邁科技持續(xù)深耕開源鴻蒙生態(tài),斬獲“先鋒單位”及“示范案例”榮譽

    11月28日,開源鴻蒙行業(yè)論壇在深圳成功舉辦。作為開源鴻蒙生態(tài)的核心共建者,誠邁科技在論壇上獲評“開源鴻蒙跨平臺框架共建先鋒單位”,其工業(yè)物
    的頭像 發(fā)表于 11-28 19:42 ?888次閱讀
    誠邁科技持續(xù)深耕<b class='flag-5'>開源</b>鴻蒙生態(tài),斬獲“先鋒單位”及“示范案例”榮譽

    開源鴻蒙技術(shù)大會2025丨跨平臺開發(fā)框架分論壇:共拓移動開發(fā)新邊界,共創(chuàng)跨平臺生態(tài)新時代

    隨著開源鴻蒙生態(tài)的持續(xù)壯大,開發(fā)者迎來了除Android與iOS之外的“第三種選擇”。為解決“加入一個新生態(tài)就會增加一倍投入”的行業(yè)痛點,讓開發(fā)者的代碼能夠在更多平臺上復(fù)用,開源鴻蒙跨平臺框架
    的頭像 發(fā)表于 11-20 17:31 ?994次閱讀
    <b class='flag-5'>開源</b>鴻蒙技術(shù)大會2025丨跨平臺開發(fā)<b class='flag-5'>框架</b>分論壇:共拓移動開發(fā)新邊界,共創(chuàng)跨平臺生態(tài)新時代

    開源鴻蒙技術(shù)大會2025丨開源鴻蒙應(yīng)用開發(fā)再提速,跨平臺框架PMC(籌)正式啟動孵化

    9月27日,開源鴻蒙技術(shù)大會2025在長沙國際會議中心盛大舉辦。大會現(xiàn)場,開源鴻蒙跨平臺框架PMC(籌)正式啟動孵化,標(biāo)志著開源鴻蒙在應(yīng)用開
    的頭像 發(fā)表于 11-10 18:15 ?1417次閱讀
    <b class='flag-5'>開源</b>鴻蒙技術(shù)大會2025丨<b class='flag-5'>開源</b>鴻蒙應(yīng)用開發(fā)再提速,跨平臺<b class='flag-5'>框架</b>PMC(籌)正式啟動孵化

    NVIDIA助力新一代機器人開發(fā)開源框架

    今年的 ROSCon 在新加坡舉辦,并于 10 月 29 日順利閉幕。大會吸引了全球機器人操作系統(tǒng)(ROS)領(lǐng)域開發(fā)者的關(guān)注。ROS 是目前全球應(yīng)用最廣泛的機器人開發(fā)開源框架
    的頭像 發(fā)表于 11-06 11:55 ?1022次閱讀

    知乎開源“智能預(yù)渲染框架” 幾行代碼實現(xiàn)鴻蒙應(yīng)用頁面“秒開”

    近日,知乎在Gitee平臺開源了其自研的鴻蒙“智能預(yù)渲染框架”,并將該框架的Har包上架到OpenHarmony三方庫中心倉。該框架在鴻蒙平臺首創(chuàng)“智能預(yù)渲染”技術(shù),旨在破解應(yīng)用復(fù)雜頁
    的頭像 發(fā)表于 08-29 14:32 ?636次閱讀
    知乎<b class='flag-5'>開源</b>“智能預(yù)渲染<b class='flag-5'>框架</b>” 幾行代碼實現(xiàn)鴻蒙應(yīng)用頁面“秒開”

    開源鴻蒙持續(xù)取得顯著成果

    和落地實踐。會上,開源鴻蒙項目群工作委員會委員、華為終端BG軟件部副總裁章曉峰發(fā)表了題為《乘風(fēng)破浪,共創(chuàng)開源鴻蒙未來》的主題演講,全面闡述了開源鴻蒙在社區(qū)發(fā)展、
    的頭像 發(fā)表于 07-28 17:39 ?965次閱讀

    開源鴻蒙AI Agent TSG正式成立

    鴻蒙 AI Agent TSG(技術(shù)專家組)正式宣布成立,旨在聯(lián)合產(chǎn)學(xué)研力量,共同洞察 Agent 在通信、協(xié)同、自演進等方面的技術(shù)趨勢,并規(guī)劃和探索下一代 Agent 技術(shù)框架。該組織的成立標(biāo)志著開源鴻蒙在全場景智能終端操作系統(tǒng)基礎(chǔ)上,正
    的頭像 發(fā)表于 07-28 17:38 ?935次閱讀

    100%開源!行業(yè)首個企業(yè)級智能體

    近日,京東云正式開源JoyAgent智能體。作為行業(yè)首個100%開源的企業(yè)級智能體,實現(xiàn)了產(chǎn)品級開源,包括前端、后端、框架、引擎和核心子智能
    的頭像 發(fā)表于 07-26 09:26 ?1200次閱讀

    開源鴻蒙應(yīng)用技術(shù)組件共建計劃啟動

    通過兼容性測評,覆蓋金融、交通、教育、醫(yī)療、航天等多個行業(yè)領(lǐng)域,已成為發(fā)展速度最快的開源操作系統(tǒng)之一。截至目前,開源鴻蒙累計發(fā)布 8 個大版本,共建共享15個技術(shù)域的1115款
    的頭像 發(fā)表于 06-05 14:33 ?1039次閱讀

    KaihongOS筆記本電腦開發(fā)實戰(zhàn)第九節(jié):全功能TypeC驅(qū)動框架適配

    連接、全智能時代搭建一個智能終端設(shè)備操作系統(tǒng)的框架和平臺,促進萬物互聯(lián)產(chǎn)業(yè)的繁榮發(fā)展。 KaihongOS: 深開鴻基于開源鴻蒙打造的國產(chǎn)化操作系統(tǒng),是一款面向全場景分布式的智能終端操作系統(tǒng)。它能夠彈性部署到各種類型、大小不一的設(shè)備上,實現(xiàn)數(shù)據(jù)間自然流通,設(shè)備間無縫交互。
    發(fā)表于 05-19 18:29

    國星光電推動五大顯示場景全面開花

    在人工智能技術(shù)蓬勃發(fā)展、消費品以舊換新政策等利好驅(qū)動下,LED行業(yè)正迎來技術(shù)迭代提速與政策紅利釋放的疊加機遇期。國星光電緊抓機遇,加速科技突圍,深耕新型顯示技術(shù),推動五大顯示場景全面開花
    的頭像 發(fā)表于 05-16 11:44 ?958次閱讀

    東軟發(fā)布“融智”解決方案智能化實施框架

    隨著生成式人工智能技術(shù)取得突破性進展,行業(yè)智能化轉(zhuǎn)型的路徑正在被重塑。為全面加速AI+行業(yè)的戰(zhàn)略布局與實施,東軟構(gòu)建了“融智”解決方案智能化實施框架。該
    的頭像 發(fā)表于 03-18 18:15 ?968次閱讀

    索尼BRC-AM7如何簡化live house拍攝流程

    溫嶺KYLIN麒麟音樂現(xiàn)場作為以現(xiàn)場音樂演出為主的live house,通過不斷提升演出環(huán)境和舞臺效果,實現(xiàn)豐富大眾文化生活需求的初衷。
    的頭像 發(fā)表于 03-18 09:11 ?987次閱讀