91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

CLIP-Chinese:中文多模態(tài)對(duì)比學(xué)習(xí)預(yù)訓(xùn)練模型

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:YeungNLP ? 作者:YeungNLP ? 2022-12-06 14:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

筆者最近嘗試在業(yè)務(wù)中引入多模態(tài),基于CLIP論文的思想,實(shí)現(xiàn)了基于Vit-Bert的CLIP模型,下面將其稱(chēng)為BertCLIP模型。筆者用140萬(wàn)的中文圖文數(shù)據(jù),基于LiT-tuning的方式,訓(xùn)了一版BertCLIP模型。BertCLIP模型在中文圖文相似度、文本相似度、圖片相似度等任務(wù)上都有著不錯(cuò)的表現(xiàn)。

本文將對(duì)該工作進(jìn)行詳細(xì)的介紹并且分享筆者使用的中文訓(xùn)練語(yǔ)料、BertCLIP預(yù)訓(xùn)練權(quán)重、模型代碼和訓(xùn)練pipeline等。

首先展示一下BertCLIP預(yù)訓(xùn)練模型在圖文相似度上的效果。

baaf4848-751e-11ed-8abf-dac502259ad0.png

項(xiàng)目地址:

https://github.com/yangjianxin1/CLIP-Chinese

預(yù)訓(xùn)練權(quán)重(使用方法,詳見(jiàn)下文):

預(yù)訓(xùn)練模型 預(yù)訓(xùn)練權(quán)重名稱(chēng) 權(quán)重地址
BertCLIP整體權(quán)重

YeungNLP/clip-vit-bert-chinese-1M

https://huggingface.co/YeungNLP/clip-vit-bert-chinese-1M

單獨(dú)提取出來(lái)的Bert權(quán)重

YeungNLP/bert-from-clip-chinese-1M

https://huggingface.co/YeungNLP/bert-from-clip-chinese-1M

論文標(biāo)題:

Learning Transferable Visual Models From Natural Language Supervision

01

模型簡(jiǎn)介

CLIP是由OpenAI提出的一種多模態(tài)對(duì)比學(xué)習(xí)模型,OpenAI使用了4億對(duì)圖文數(shù)據(jù),基于對(duì)比學(xué)習(xí)的方法對(duì)CLIP模型進(jìn)行訓(xùn)練。

CLIP模型主要由文編碼器和圖片編碼器兩部分組成,訓(xùn)練過(guò)程如下圖所示。對(duì)于batch size為N的圖文對(duì)數(shù)據(jù),將N個(gè)圖片與N個(gè)文本分別使用圖片編碼器和文本編碼器進(jìn)行編碼,并且映射到同一個(gè)向量空間。然后分別計(jì)算兩兩圖文對(duì)編碼的點(diǎn)乘相似度,這樣就能得到一個(gè)N*N的相似度矩陣。

bb017028-751e-11ed-8abf-dac502259ad0.png

然后使用我們熟悉的對(duì)比損失InfoNCE Loss來(lái)計(jì)算該batch的訓(xùn)練損失,更新模型權(quán)重。對(duì)InfoNCE Loss不熟悉的小伙伴,可以回顧筆者往期的文章:SimCSE:簡(jiǎn)單有效的句向量對(duì)比學(xué)習(xí)方法。

舉個(gè)例子,對(duì)于圖片I1,分別計(jì)算I1與文本T1~TN的相似度,T1是I1的正樣本,而T2~TN均視為I1的負(fù)樣本,我們希望I1與T1的相似度盡可能大,而I1與其他文本的相似度盡可能小。

在計(jì)算T1的InfoNCE Loss時(shí),首先將T1與所有文本的相似度進(jìn)行softmax歸一化,得到相似度的分布,然后計(jì)算相似度分布與label的交叉熵?fù)p失,而T1的label為1。由此可以將這個(gè)loss的計(jì)算方式推廣到整個(gè)batch。

有小伙伴可能會(huì)覺(jué)得,對(duì)于圖片l1,文本T2~TN中可能存在它的正樣本,若T2~TN均視為I1的負(fù)樣本,會(huì)對(duì)模型的訓(xùn)練帶來(lái)很大的影響。對(duì)于該問(wèn)題,我們可以認(rèn)為,當(dāng)數(shù)據(jù)量足夠大,并且batch size足夠大的時(shí)候,上述誤差對(duì)模型的優(yōu)化方向的影響是有限的。在預(yù)訓(xùn)練時(shí)代,我們要相信大力是能夠出奇跡的,只要堆足夠多優(yōu)質(zhì)的數(shù)據(jù),很多問(wèn)題都可以迎刃而解。

02

項(xiàng)目介紹

訓(xùn)練細(xì)節(jié)

BertCLIP主要由Vit和Bert組成,在預(yù)訓(xùn)練時(shí),筆者分別使用不同的預(yù)訓(xùn)練權(quán)重來(lái)初始化Vit和Bert的權(quán)重。使用OpenAI開(kāi)源的CLIP模型來(lái)初始化Vit權(quán)重,使用孟子中文預(yù)訓(xùn)練權(quán)重來(lái)初始化Bert權(quán)重。

我們基于LiT-tuning的方法來(lái)訓(xùn)練BertCLIP模型,也就是將Vit部分的模型參數(shù)進(jìn)行凍結(jié),只訓(xùn)練BertCLIP的其他部分的參數(shù)。LiT-tuning是多模態(tài)模型訓(xùn)練的一種范式,它旨在讓文本編碼空間向圖像編碼空間靠近,并且可以加快模型的收斂速度。

筆者使用了140萬(wàn)條中文圖文數(shù)據(jù)對(duì),batchsize為768,warmup step為1000步,學(xué)習(xí)率為5e-5,使用cosine衰減策略,混合精度訓(xùn)練了50個(gè)epoch,總共73100步,訓(xùn)練loss最終降為0.23左右。模型的訓(xùn)練loss變化如下圖所示。

bb250222-751e-11ed-8abf-dac502259ad0.png

由于訓(xùn)練資源的限制,以及訓(xùn)練數(shù)據(jù)的獲取需要耗費(fèi)較多時(shí)間,目前筆者僅使用了140萬(wàn)的訓(xùn)練數(shù)據(jù)。對(duì)于預(yù)訓(xùn)練而言,140萬(wàn)的訓(xùn)練數(shù)據(jù)量略微少了些,筆者訓(xùn)練50輪,模型也許會(huì)過(guò)分?jǐn)M合訓(xùn)練數(shù)據(jù)。若條允許,讀者可以共享的模型權(quán)重的基礎(chǔ)上,使用更多域內(nèi)數(shù)據(jù)進(jìn)行二次預(yù)訓(xùn)練。

筆者曾使用實(shí)際業(yè)務(wù)中1700萬(wàn)的圖文數(shù)據(jù)訓(xùn)練BertCLIP模型,訓(xùn)練10輪,大概22萬(wàn)步,訓(xùn)練損失大約降為0.7。在域內(nèi)的圖文匹配、同義詞挖掘等任務(wù)中有不錯(cuò)的效果。

使用方法

BertCLIP模型的使用方法非常簡(jiǎn)單,首先將項(xiàng)目clone到本地機(jī)器上,并且安裝相關(guān)依賴包。

git clone https://github.com/yangjianxin1/CLIP-Chinese.git
pipinstall-rrequirements.txt

使用如下代碼,即可加載預(yù)訓(xùn)練權(quán)重和processor,對(duì)圖片和文本進(jìn)行預(yù)處理,并且得到模型的輸出。

from transformers import CLIPProcessor
from component.model import BertCLIPModel
from PIL import Image
import requests


model_name_or_path = 'YeungNLP/clip-vit-bert-chinese-1M'
# 加載預(yù)訓(xùn)練模型權(quán)重
model = BertCLIPModel.from_pretrained(model_name_or_path)
# 初始化processor
CLIPProcessor.tokenizer_class='BertTokenizerFast'
processor = CLIPProcessor.from_pretrained(model_name_or_path)
# 預(yù)處理輸入
url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw)
inputs = processor(text=["一只小狗在搖尾巴", "一只小豬在吃飯"], images=image, return_tensors="pt", padding=True)
inputs.pop('token_type_ids')    # 輸入中不包含token_type_ids


outputs = model(**inputs)


# 對(duì)于每張圖片,計(jì)算其與所有文本的相似度
logits_per_image = outputs.logits_per_image  # image-text的相似度得分
probs = logits_per_image.softmax(dim=1)  # 對(duì)分?jǐn)?shù)進(jìn)行歸一化


# 對(duì)于每個(gè)文本,計(jì)算其與所有圖片的相似度
logits_per_text = outputs.logits_per_text  # text-image的相似度得分
probs = logits_per_text.softmax(dim=1)  # 對(duì)分?jǐn)?shù)進(jìn)行歸一化


# 獲得文本編碼
text_embeds = outputs.text_embeds
# 獲得圖像編碼
image_embeds = outputs.image_embeds

單獨(dú)加載圖像編碼器,進(jìn)行下游任務(wù)。

from PIL import Image
import requests
from transformers import CLIPProcessor, CLIPVisionModel


model_name_or_path = 'YeungNLP/clip-vit-bert-chinese-1M'
model = CLIPVisionModel.from_pretrained(model_name_or_path)
CLIPProcessor.tokenizer_class = 'BertTokenizerFast'
processor = CLIPProcessor.from_pretrained(model_name_or_path)


url = "http://images.cocodataset.org/val2017/000000039769.jpg"
image = Image.open(requests.get(url, stream=True).raw)


inputs = processor(images=image, return_tensors="pt")


outputs = model(**inputs)
last_hidden_state = outputs.last_hidden_state
pooled_output = outputs.pooler_output

單獨(dú)加載文本編碼器,進(jìn)行下游任務(wù)。

from component.model import BertCLIPTextModel
from transformers import BertTokenizerFast


model_name_or_path = 'YeungNLP/clip-vit-bert-chinese-1M'
model = BertCLIPTextModel.from_pretrained(model_name_or_path)
tokenizer = BertTokenizerFast.from_pretrained(model_name_or_path)


inputs = tokenizer(["一只小狗在搖尾巴", "一只小豬在吃飯"], padding=True, return_tensors="pt")
inputs.pop('token_type_ids')  # 輸入中不包含token_type_ids


outputs = model(**inputs)
last_hidden_state = outputs.last_hidden_state
pooled_output = outputs.pooler_output

筆者也將BertCLIP中Bert的預(yù)訓(xùn)練權(quán)重單獨(dú)拎出來(lái),可以使用BertModel直接加載,進(jìn)行下游任務(wù)。

from transformers import BertTokenizer, BertModel


model_name_or_path = 'YeungNLP/bert-from-clip-chinese-1M'
tokenizer = BertTokenizer.from_pretrained(model_name_or_path)
model = BertModel.from_pretrained(model_name_or_path)

在項(xiàng)目中,筆者上傳了多線程下載訓(xùn)練圖片、訓(xùn)練pipeline,以及相似度計(jì)算的腳本,更多細(xì)節(jié)可參考項(xiàng)目代碼。

03

模型效果

圖文相似度

在計(jì)算圖文相似的時(shí)候,首先計(jì)算兩兩圖文向量之間的點(diǎn)乘相似度。對(duì)于每張圖,將其與所有文本的相似度進(jìn)行softmax歸一化,得到最終的分?jǐn)?shù)。

bb40dec0-751e-11ed-8abf-dac502259ad0.png

bb6a8716-751e-11ed-8abf-dac502259ad0.png

文本相似度

在計(jì)算文本相似度的時(shí)候,首先計(jì)算兩兩文本之間的點(diǎn)乘相似度。對(duì)于每個(gè)文本,將其與自身的相似度置為-10000(否則對(duì)于每個(gè)文本,其與自身的相似度永遠(yuǎn)為最大),然后將其與所有文本的相似度進(jìn)行softmax歸一化,得到最終的分?jǐn)?shù)。

bba9ce62-751e-11ed-8abf-dac502259ad0.png

bc0194b2-751e-11ed-8abf-dac502259ad0.png

bc258566-751e-11ed-8abf-dac502259ad0.png

bf4c3a28-751e-11ed-8abf-dac502259ad0.png

圖片相似度

圖片相似度的計(jì)算方式與文本相似度的方式一致。為方便展示,僅選出top1的圖片及其相似度分?jǐn)?shù)。

注:由于在訓(xùn)練BertCLIP時(shí),將圖像編碼器的權(quán)重凍結(jié),所以該部分的能力,主要?dú)w功于OpenAIclip預(yù)訓(xùn)練權(quán)重。如想要優(yōu)化模型在域內(nèi)數(shù)據(jù)的圖片相似度計(jì)算能力,圖像編碼器需要一起參與訓(xùn)練。

bf6f2132-751e-11ed-8abf-dac502259ad0.png

bfa43bec-751e-11ed-8abf-dac502259ad0.png

04

結(jié)語(yǔ)

在本文中,筆者基于CLIP的思想,設(shè)計(jì)了Vit-Bert結(jié)構(gòu)的BertCLIP模型,并且使用140萬(wàn)中文圖文數(shù)據(jù)對(duì),對(duì)模型進(jìn)行預(yù)訓(xùn)練。在圖文相似度、文本相似度、圖片相似度任務(wù)上做了嘗試,取得了不錯(cuò)的效果。

該預(yù)訓(xùn)練模型,能夠在中文圖文檢索、文本相似度計(jì)算、同義詞挖掘、相似圖召回等任務(wù)上發(fā)揮作用。并且在下游的一些多模態(tài)任務(wù)中,可以憑借該模型同時(shí)引入圖片和文本信息,擴(kuò)充模型的信息域。由于Bert需要將文本空間向圖片空間對(duì)齊,所以Bert必然能夠?qū)W到了豐富的語(yǔ)義信息,這能夠?qū)ο掠蔚腘LP任務(wù)帶來(lái)增益。讀者也可以基于筆者分享的Bert預(yù)訓(xùn)練權(quán)重,進(jìn)行下游NLP任務(wù)的finetune,相信會(huì)有所幫助。

不足之處在于,對(duì)于預(yù)訓(xùn)練而言,140萬(wàn)的數(shù)據(jù)稍顯不足,讀者可以使用自身域內(nèi)數(shù)據(jù)進(jìn)行二次預(yù)訓(xùn)練。

審核編輯 :李倩


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3961

    瀏覽量

    142752
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3758

    瀏覽量

    52131
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1245

    瀏覽量

    10122

原文標(biāo)題:CLIP-Chinese:中文多模態(tài)對(duì)比學(xué)習(xí)預(yù)訓(xùn)練模型

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    格靈深瞳模態(tài)模型榮登InfoQ 2025中國(guó)技術(shù)力量年度榜單

    靈感實(shí)驗(yàn)室聯(lián)合LLaVA社區(qū)發(fā)布的模態(tài)模型LLaVA-OneVision-1.5,實(shí)現(xiàn)了訓(xùn)練數(shù)據(jù)、代碼和模型權(quán)重的全鏈路開(kāi)源,在多項(xiàng)公開(kāi)
    的頭像 發(fā)表于 01-05 10:05 ?521次閱讀

    模態(tài)感知大模型驅(qū)動(dòng)的密閉空間自主勘探系統(tǒng)的應(yīng)用與未來(lái)發(fā)展

    ? ? 模態(tài)感知大模型驅(qū)動(dòng)的密閉空間自主勘探系統(tǒng) ? ?北京華盛恒輝模態(tài)感知大模型驅(qū)動(dòng)的密閉
    的頭像 發(fā)表于 12-29 11:27 ?313次閱讀

    模態(tài)模型驅(qū)動(dòng)的復(fù)雜環(huán)境精準(zhǔn)導(dǎo)航避障系統(tǒng)平臺(tái)的應(yīng)用

    模態(tài)模型驅(qū)動(dòng)的復(fù)雜環(huán)境精準(zhǔn)導(dǎo)航避障系統(tǒng)平臺(tái)的應(yīng)用
    的頭像 發(fā)表于 12-22 13:15 ?296次閱讀
    <b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>驅(qū)動(dòng)的復(fù)雜環(huán)境精準(zhǔn)導(dǎo)航避障系統(tǒng)平臺(tái)的應(yīng)用

    商湯科技正式發(fā)布并開(kāi)源全新模態(tài)模型架構(gòu)NEO

    商湯科技正式發(fā)布并開(kāi)源了與南洋理工大學(xué)S-Lab合作研發(fā)的全新模態(tài)模型架構(gòu) —— NEO,為日日新SenseNova 模態(tài)
    的頭像 發(fā)表于 12-08 11:19 ?1029次閱讀
    商湯科技正式發(fā)布并開(kāi)源全新<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b><b class='flag-5'>模型</b>架構(gòu)NEO

    格靈深瞳模態(tài)模型Glint-ME讓圖文互搜更精準(zhǔn)

    在電商、安防等場(chǎng)景下,圖文互搜應(yīng)用廣泛。隨著以CLIP為代表的模態(tài)表征方法相繼提出,過(guò)去單一模態(tài)搜索(文搜文、圖搜圖)被突破,模型可以同時(shí)
    的頭像 發(fā)表于 11-02 15:56 ?1726次閱讀
    格靈深瞳<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>Glint-ME讓圖文互搜更精準(zhǔn)

    亞馬遜云科技上線Amazon Nova模態(tài)嵌入模型

    Embeddings模態(tài)嵌入模型現(xiàn)已在Amazon Bedrock上線,這是一款專(zhuān)為Agentic RAG與語(yǔ)義搜索應(yīng)用打造的頂尖模態(tài)
    的頭像 發(fā)表于 10-29 17:15 ?277次閱讀
    亞馬遜云科技上線Amazon Nova<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>嵌入<b class='flag-5'>模型</b>

    1688 模態(tài)搜索從 0 到 1:逆向接口解析與 CLIP 特征匹配實(shí)踐

    本文分享基于CLIP模型與逆向工程實(shí)現(xiàn)1688圖片搜同款的實(shí)戰(zhàn)方案。通過(guò)抓包分析破解接口簽名,結(jié)合CLIP模態(tài)特征提取與Faiss向量檢索
    的頭像 發(fā)表于 10-17 10:00 ?578次閱讀

    格靈深瞳三項(xiàng)成果獲得國(guó)際頂級(jí)學(xué)術(shù)會(huì)議認(rèn)可

    以O(shè)penAI CLIP為代表的模態(tài)預(yù)訓(xùn)練模型,為安防、電商等應(yīng)用場(chǎng)景提供了強(qiáng)大的跨
    的頭像 發(fā)表于 09-15 14:43 ?1375次閱讀

    商湯日日新V6.5模態(tài)模型登頂全球權(quán)威榜單

    根據(jù)權(quán)威評(píng)測(cè)平臺(tái)OpenCompass模態(tài)模型學(xué)術(shù)榜單(Multi-modal Academic Leaderboard)最新數(shù)據(jù)顯示,商湯「日日新 V6.5」(SenseNova-V6.5
    的頭像 發(fā)表于 09-10 09:55 ?810次閱讀

    淺析模態(tài)標(biāo)注對(duì)大模型應(yīng)用落地的重要性與標(biāo)注實(shí)例

    ”的關(guān)鍵工序——模態(tài)標(biāo)注重要性日益凸顯。 一、什么是模態(tài)標(biāo)注? 模態(tài)標(biāo)注是指對(duì)文本、圖像、
    的頭像 發(fā)表于 09-05 13:49 ?2373次閱讀

    商湯日日新SenseNova融合模態(tài)模型 國(guó)內(nèi)首家獲得最高評(píng)級(jí)的大模型

    近日,中國(guó)信息通信研究院(以下簡(jiǎn)稱(chēng)“中國(guó)信通院”)完成可信AI模態(tài)模型首輪評(píng)估。 商湯日日新SenseNova融合模態(tài)模型在所有
    的頭像 發(fā)表于 06-11 11:57 ?1437次閱讀

    愛(ài)芯通元NPU適配Qwen2.5-VL-3B視覺(jué)模態(tài)模型

    熟悉愛(ài)芯通元NPU的網(wǎng)友很清楚,從去年開(kāi)始我們?cè)诙藗?cè)模態(tài)模型適配上一直處于主動(dòng)緊跟的節(jié)奏。先后適配了國(guó)內(nèi)最早開(kāi)源的模態(tài)大模MiniCP
    的頭像 發(fā)表于 04-21 10:56 ?3176次閱讀
    愛(ài)芯通元NPU適配Qwen2.5-VL-3B視覺(jué)<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>

    海康威視發(fā)布模態(tài)模型AI融合巡檢超腦

    基于??涤^瀾大模型技術(shù)體系,??低曂瞥鲂乱淮?b class='flag-5'>多模態(tài)模型AI融合巡檢超腦,全面升級(jí)人、車(chē)、行為、事件等算法,為行業(yè)帶來(lái)全新的
    的頭像 發(fā)表于 04-17 17:12 ?1647次閱讀

    用PaddleNLP為GPT-2模型制作FineWeb二進(jìn)制預(yù)訓(xùn)練數(shù)據(jù)集

    ,使用PaddleNLP將FineWeb數(shù)據(jù)集中文本形式的數(shù)據(jù),經(jīng)過(guò)分詞化(Tokenize),轉(zhuǎn)換為大語(yǔ)言模型能直接使用的二進(jìn)制數(shù)據(jù),以便提升訓(xùn)練效果。 ChatGPT發(fā)布后,當(dāng)代大語(yǔ)言模型
    的頭像 發(fā)表于 03-21 18:24 ?4338次閱讀
    用PaddleNLP為GPT-2<b class='flag-5'>模型</b>制作FineWeb二進(jìn)制<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)集

    移遠(yuǎn)通信智能模組全面接入模態(tài)AI大模型,重塑智能交互新體驗(yàn)

    隨著千行百業(yè)數(shù)智化進(jìn)程的不斷加速,模態(tài)AI大模型的應(yīng)用需求不斷攀升,圖像、語(yǔ)音、視頻等多樣化的交互方式正逐漸成為推動(dòng)行業(yè)變革的新動(dòng)力。3月20日,全球物聯(lián)網(wǎng)整體解決方案供應(yīng)商移遠(yuǎn)通信宣布,其全系
    的頭像 發(fā)表于 03-20 19:03 ?850次閱讀
    移遠(yuǎn)通信智能模組全面接入<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>AI大<b class='flag-5'>模型</b>,重塑智能交互新體驗(yàn)