91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

源2.0適配FastChat框架,企業(yè)快速本地化部署大模型對(duì)話平臺(tái)

全球TMT ? 來(lái)源:全球TMT ? 作者:全球TMT ? 2024-02-29 09:57 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

北京2024年2月28日/美通社/ -- 近日,浪潮信息Yuan2.0大模型與FastChat框架完成全面適配,推出"企業(yè)快速本地化部署大模型對(duì)話平臺(tái)"方案。該方案主要面向金融、法律、教育等領(lǐng)域,且有數(shù)據(jù)隱私保護(hù)需求的本地化部署場(chǎng)景。全面開(kāi)放的對(duì)話模板功能,用戶可基于FastChat平臺(tái),快速對(duì)不同參數(shù)規(guī)模的Yuan2.0基礎(chǔ)模型進(jìn)行訓(xùn)練、評(píng)估和應(yīng)用,將Yuan2.0系列基礎(chǔ)大模型部署于私有環(huán)境,快速部署企業(yè)級(jí)大模型應(yīng)用。值得一提的是,F(xiàn)astChat提供標(biāo)準(zhǔn)API格式(OpenAI標(biāo)準(zhǔn))的服務(wù),因此,原本采用OpenAI API接口所構(gòu)建的系列應(yīng)用,用戶無(wú)需修改代碼,僅需更新API服務(wù)的接口地址,即可靈活、絲滑地切換為本地部署的Yuan2.0千億參數(shù)模型。

wKgZomXfNLWAOYk6AAEJDzMrT0I739.jpg


當(dāng)前,各類模型迭代更新飛快。簡(jiǎn)單且易用的對(duì)話模型框架成為了開(kāi)發(fā)者解決本地化構(gòu)建對(duì)話系統(tǒng)的一大利器。標(biāo)準(zhǔn)一致的工具和環(huán)境,可有效實(shí)現(xiàn)后端模型的平滑遷移,開(kāi)發(fā)者能夠在不改變?cè)写a的情況下,輕松適應(yīng)新的模型和技術(shù)要求。基于現(xiàn)成的框架和工具,依托繁榮的社區(qū),進(jìn)而有效地解決了技術(shù)門(mén)檻高、開(kāi)發(fā)流程復(fù)雜、知識(shí)共享困難、部署維護(hù)成本高以及數(shù)據(jù)安全等一系列難題,不僅可提高開(kāi)發(fā)效率,也可為開(kāi)發(fā)者帶來(lái)了更多的便利和可能性。

FastChat是加州大學(xué)伯克利分校LM-SYS發(fā)布的創(chuàng)新型開(kāi)源項(xiàng)目,Github Star數(shù)超31k。旨在為研究和開(kāi)發(fā)人員提供一個(gè)易于使用、可擴(kuò)展的平臺(tái),用于訓(xùn)練、服務(wù)和評(píng)估基于LLM的聊天機(jī)器人,大幅降低開(kāi)發(fā)人員構(gòu)建問(wèn)答系統(tǒng)的門(mén)檻,實(shí)現(xiàn)知識(shí)管理平臺(tái)的輕松部署與高效維護(hù)。其核心功能包括提供最先進(jìn)的模型權(quán)重、訓(xùn)練代碼和評(píng)估代碼(例如Yuan2.0、Vicuna、FastChat-T5)以及帶有Web UI和兼容OpenAI RESTful API的分布式多模型服務(wù)系統(tǒng)。Yuan2.0系列基礎(chǔ)大模型作為首個(gè)全面開(kāi)源的千億參數(shù)模型,在編程、推理、邏輯等方面表現(xiàn)優(yōu)異。通過(guò)Fastchat平臺(tái),企業(yè)級(jí)用戶可一鍵啟動(dòng)標(biāo)準(zhǔn)API(OpenAI標(biāo)準(zhǔn))服務(wù),滿足企業(yè)需求的定制化應(yīng)用開(kāi)發(fā),輕松對(duì)接口進(jìn)行封裝,高效且安全地開(kāi)發(fā)智能對(duì)話系統(tǒng)。在保證數(shù)據(jù)私密性和安全性的同時(shí),極大地提升了模型本地化部署的效率、應(yīng)用性能及穩(wěn)定性。

基于FastChat使用Yuan2.0大模型,Step by Step實(shí)操教程!

* 如下步驟以Yuan2-2B-Janus-hf模型為例:

Step 1: 安裝FastChat

FastChat官方提供的兩種安裝方式--pip安裝與源碼安裝

pip安裝

官方提供的采用pip安裝命令為pip3,建議大家采用python3.x,避免出現(xiàn)依賴包沖突。

pip3 install "fschat[model_worker,webui]"

源碼安裝

先從github上下載源碼,在FastChat目錄下執(zhí)行如下命令:

git clonehttps://github.com/lm-sys/FastChat.git
cd FastChat
pip3 install --upgrade pip && pip3 install -e ".[model_worker,webui]"

Step 2 : 下載Yuan2.0系列基礎(chǔ)大模型

模型 序列長(zhǎng)度 下載鏈接
Yuan2.0-102B-hf 4K https://www.modelscope.cn/models/YuanLLM/Yuan2.0-102B-hf/summary
Yuan2.0-51B-hf 4K https://www.modelscope.cn/models/YuanLLM/Yuan2.0-51B-hf/summary
Yuan2.0-2B-hf 8K https://www.modelscope.cn/models/YuanLLM/Yuan2.0-2B-hf/summary
Yuan2-2B-Janus-hf 8K https://www.modelscope.cn/models/YuanLLM/Yuan2-2B-Janus-hf/summary

Step 3:?jiǎn)?dòng)FastChat推理服務(wù)

采用如下命令啟動(dòng)FastChat服務(wù):

python3-m fastchat.serve.cli --model-path /mnt/models/Yuan2-2B-Janus-hf

至此,基于Yuan2.0基礎(chǔ)大模型的FastChat推理服務(wù)就已啟動(dòng)完成了!服務(wù)啟動(dòng)后會(huì)進(jìn)入客戶端頁(yè)面??蛻舳私换?shí)例如下:

——————————————————

user: 你好。
assistant: 您好,有什么可以幫助您的嗎?
user: 介紹一下北京。
assistant: 北京是中國(guó)的首都,位于華北平原中部。它是一個(gè)歷史悠久、文化燦爛的城市,也是現(xiàn)代化與傳統(tǒng)文化相結(jié)合的代表之一。北京擁有著豐富的歷史遺產(chǎn)和文化景觀,如紫禁城、天安門(mén)廣場(chǎng)、頤和園、長(zhǎng)城等。此外,北京還有許多現(xiàn)代建筑和創(chuàng)意藝術(shù)作品,如798藝術(shù)區(qū)、木魚(yú)巷等。
user: 給我寫(xiě)一個(gè)快速排序算法。
assistant: 快速排序是一種基于比較的排序算法,其時(shí)間復(fù)雜度為O(nlogn)。具體來(lái)說(shuō),快速排序通過(guò)選取一個(gè)基準(zhǔn)元素,將數(shù)組分為兩部分,使得左邊的元素都小于基準(zhǔn)元素,右邊的元素都大于基準(zhǔn)元素,然后遞歸地對(duì)左右兩部分進(jìn)行排序。
以下是一個(gè)簡(jiǎn)單的快速排序算法實(shí)現(xiàn):
```python
def quick_sort(arr):
if len(arr) <= 1:
return arr
pivot = arr[len(arr) // 2]
left = [x for x in arr if x < pivot]
middle = [x for x in arr if x == pivot]
right = [x for x in arr if x > pivot]
return quick_sort(left) + middle + quick_sort(right)
```
這個(gè)算法的優(yōu)點(diǎn)是它通常能夠很好地處理小規(guī)模數(shù)據(jù),而且它具有很好的可擴(kuò)展性,可以輕松地處理不同規(guī)模的數(shù)據(jù)。但是,它也有一些缺點(diǎn),例如它需要額外的空間來(lái)存儲(chǔ)中間結(jié)果,并且它的最壞時(shí)間復(fù)雜度為O(n^2)。因此,在實(shí)際應(yīng)用中,我們通常使用更高效的排序算法,如歸并排序、插入排序等。
user: 能提供一些測(cè)試用例嗎
assistant: 當(dāng)然可以。以下是一些常見(jiàn)的測(cè)試用例:
```python
def test_quick_sort():
assert quick_sort([]) == []
assert quick_sort([1]) == [1]
assert quick_sort([3, 2, 1]) == [1, 2, 3]
assert quick_sort([5, 8, 2, 1, 6, 3, 4, 7, 9]) == [1, 2, 3, 4, 5, 6, 7, 8, 9]
assert quick_sort([9, 8, 7, 6, 5, 4, 3, 2, 1]) == [1, 2, 3, 4, 5, 6, 7, 8, 9]
```
這些測(cè)試用例包括了各種不同規(guī)模和不同順序的輸入數(shù)據(jù)。
user: 很好,你知道它的時(shí)間復(fù)雜度嗎?
assistant: 是的,我知道它的時(shí)間復(fù)雜度為O(nlogn)。
user:

————————————————

同時(shí),也可選用WebUI,需要先啟動(dòng)fastchat的controller和worker,在命令行輸入如下命令即可啟動(dòng):

python3 -m fastchat.serve.controller
python3 -m fastchat.serve.model_worker --model-path /mnt/models/Yuan2-2B-Janus-hf
python3-mfastchat.serve.gradio_web_server

啟動(dòng)完成后,默認(rèn)會(huì)彈出WebUI頁(yè)面,選擇Yuan2.0模板即可與Yuan2.0大模型進(jìn)行對(duì)話。以下為使用WebUI與Yuan2.0進(jìn)行交互的示例:

代碼實(shí)現(xiàn)

wKgaomXfNLaAToybAADRl_iTOTA579.jpg


測(cè)試用例

wKgZomXfNLaAZ2hrAADTArqP9lI354.jpg


上下文測(cè)試

wKgaomXfNLeAJX7EAACc8yBAqqw049.jpg


更多更新,請(qǐng)關(guān)注Github "源"交流專區(qū),
前往GitHub搜索"IEIT-Yuan/Yuan-2.0"


審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3651

    瀏覽量

    5195
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    壁仞科技壁礪166系列產(chǎn)品深度適配MiniMax M2.5和智譜GLM-5模型

    2月13日晚,MiniMax正式開(kāi)源了最新旗艦模型M2.5。壁仞科技(06082.HK)旗艦產(chǎn)品壁礪166系列率先完成M2.5的本地化部署,成為首批完成適配的國(guó)產(chǎn)算力廠商。
    的頭像 發(fā)表于 02-26 14:31 ?513次閱讀
    壁仞科技壁礪166系列產(chǎn)品深度<b class='flag-5'>適配</b>MiniMax M2.5和智譜GLM-5<b class='flag-5'>模型</b>

    Neway微波產(chǎn)品的國(guó)產(chǎn)替代方案

    ,Neway能夠根據(jù)客戶需求快速調(diào)整生產(chǎn)流程,利用本地供應(yīng)商提供的原材料和零部件,在2-6周內(nèi)完成定制產(chǎn)品的交付。這種本地化供應(yīng)鏈整合方式提高了Neway的市場(chǎng)響應(yīng)速度,增強(qiáng)了其競(jìng)爭(zhēng)力。四、技術(shù)兼容性
    發(fā)表于 12-18 09:24

    工業(yè)物聯(lián)網(wǎng)平臺(tái)適合私有本地部署還是云端部署?

    工業(yè)物聯(lián)網(wǎng)平臺(tái)部署方式需根據(jù)企業(yè)核心需求選擇, 私有本地部署適合數(shù)據(jù)安全要求極高、需深度定制且具備技術(shù)實(shí)力的
    的頭像 發(fā)表于 11-12 11:42 ?430次閱讀
    工業(yè)物聯(lián)網(wǎng)<b class='flag-5'>平臺(tái)</b>適合私有<b class='flag-5'>本地</b><b class='flag-5'>部署</b>還是云端<b class='flag-5'>部署</b>?

    發(fā)布元服務(wù)配置本地化基礎(chǔ)信息(應(yīng)用名稱、圖標(biāo))

    您可以添加元服務(wù)支持的語(yǔ)言,并配置對(duì)應(yīng)語(yǔ)言的本地化信息。 例如,當(dāng)您設(shè)置簡(jiǎn)體中文為默認(rèn)語(yǔ)言,并且只配置中文的本地化信息,那么元服務(wù)在所有設(shè)置的發(fā)布國(guó)家或地區(qū)的信息都將顯示中文。如果您還設(shè)置了英文
    發(fā)表于 10-24 17:42

    廣和通成功部署DeepSeek-R1-0528-Qwen3-8B模型

    近日,廣和通在MediaTek MT8893平臺(tái)上成功部署并運(yùn)行了DeepSeek-R1-0528-Qwen3-8B模型,顯著提升了端側(cè)AI設(shè)備的處理效率與智能水平,特別是在
    的頭像 發(fā)表于 09-26 13:35 ?875次閱讀

    破解非洲數(shù)字鴻溝:傳音控股以本地化創(chuàng)新與教育合作助力可持續(xù)發(fā)展

    科技出海企業(yè)代表傳音控股繼續(xù)秉持“全球視野,本地化創(chuàng)新”理念,通過(guò)技術(shù)研發(fā)與公益投入雙輪驅(qū)動(dòng),助力非洲跨越數(shù)字鴻溝。深耕本地化創(chuàng)新,傳音賦能非洲數(shù)字
    的頭像 發(fā)表于 09-25 16:46 ?1197次閱讀
    破解非洲數(shù)字鴻溝:傳音控股以<b class='flag-5'>本地化</b>創(chuàng)新與教育合作助力可持續(xù)發(fā)展

    米爾RK3576部署端側(cè)多模態(tài)多輪對(duì)話,6TOPS算力驅(qū)動(dòng)30億參數(shù)LLM

    加載 → 圖片預(yù)處理 → 用戶交互 → 推理輸出”的核心流程,支持圖文一體的多模態(tài)對(duì)話適配多輪問(wèn)答、視覺(jué)問(wèn)答等典型場(chǎng)景。 具體運(yùn)行機(jī)制可拆解為以下步驟:1. 模型初始首先加載大語(yǔ)言
    發(fā)表于 09-05 17:25

    能源監(jiān)測(cè)管理平臺(tái)本地化部署好還是云端部署好?

    能源監(jiān)測(cè)管理平臺(tái)本地化部署和云端部署各有優(yōu)劣,企業(yè)需根據(jù)自身需求和實(shí)際情況來(lái)選擇。如果企業(yè)對(duì)數(shù)據(jù)安全要求極高、網(wǎng)絡(luò)環(huán)境特殊且預(yù)算充足,
    的頭像 發(fā)表于 07-22 15:16 ?530次閱讀
    能源監(jiān)測(cè)管理<b class='flag-5'>平臺(tái)</b>是<b class='flag-5'>本地化</b><b class='flag-5'>部署</b>好還是云端<b class='flag-5'>部署</b>好?

    AI+能源數(shù)字破局者故事5:斯倫貝謝 x IBM 咨詢之 “全球經(jīng)營(yíng)與本地化適配

    斯倫貝謝與 IBM 的合作建立在技術(shù)專長(zhǎng)、交付能力及本地化支持的基礎(chǔ)上,IBM 的強(qiáng)大技術(shù)實(shí)力和本地經(jīng)驗(yàn),使其成為斯倫貝謝推動(dòng)數(shù)字轉(zhuǎn)型的重要合作伙伴
    的頭像 發(fā)表于 07-17 19:02 ?1408次閱讀

    施耐德電氣與奇安信共建技術(shù)本地化創(chuàng)新中心

    ?在施耐德電氣技術(shù)本地化創(chuàng)新日上 ; 施耐德電氣與奇安信集團(tuán)宣布成立 施耐德電氣(中國(guó))技術(shù)本地化創(chuàng)新中心。 該中心將提供 針對(duì)國(guó)產(chǎn)基礎(chǔ)軟硬件的深度適配服務(wù),以信息技術(shù)共創(chuàng)和生態(tài)協(xié)同為核心 ,更好
    的頭像 發(fā)表于 07-10 19:01 ?1034次閱讀
    施耐德電氣與奇安信共建技術(shù)<b class='flag-5'>本地化</b>創(chuàng)新中心

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    下一步行動(dòng)。本文將一步步帶你在本地服務(wù)器上完成該模型部署,并搭建一個(gè)直觀的 Web 交互界面,親身體驗(yàn)前沿 AI 的“思考”過(guò)程。
    的頭像 發(fā)表于 07-09 10:17 ?826次閱讀

    企業(yè)部署AI大模型怎么做

    當(dāng)下,AI大模型已成為驅(qū)動(dòng)決策自動(dòng)、服務(wù)智能與產(chǎn)品創(chuàng)新的核心引擎。然而,企業(yè)面對(duì)動(dòng)輒數(shù)百億參數(shù)的大模型
    的頭像 發(fā)表于 06-04 09:26 ?899次閱讀

    DigiKey 應(yīng)用與技術(shù)門(mén)戶平臺(tái)已針對(duì)亞太地區(qū)進(jìn)行了本地化

    品類齊全且可立即發(fā)貨的產(chǎn)品。DigiKey 在亞太地區(qū)提供專屬應(yīng)用與技術(shù)平臺(tái)。該平臺(tái)提供本地化的在線資源,旨在助力工程師和創(chuàng)新者,提供專業(yè)技術(shù)資源、精選產(chǎn)品信息和互動(dòng)學(xué)習(xí)內(nèi)容。 DigiKey 應(yīng)用與技術(shù)
    發(fā)表于 05-23 16:37 ?1229次閱讀

    【「零基礎(chǔ)開(kāi)發(fā)AI Agent」閱讀體驗(yàn)】+Agent開(kāi)發(fā)平臺(tái)

    Agent開(kāi)發(fā)平臺(tái)是專門(mén)用于創(chuàng)建、配置、部署、訓(xùn)練和運(yùn)行Agent的平臺(tái)。 隨著Agent開(kāi)發(fā)框架的發(fā)展,很多Agent開(kāi)發(fā)平臺(tái)能夠以圖形
    發(fā)表于 05-13 12:24

    博實(shí)結(jié)完成DeepSeek大模型本地化部署

    近日,公司完成DeepSeek R1 671B大模型本地化部署。通過(guò)構(gòu)建自主可控的AI基礎(chǔ)設(shè)施,公司同步實(shí)現(xiàn)研發(fā)智能升級(jí)、研發(fā)成本重構(gòu)、數(shù)據(jù)安全閉環(huán)與應(yīng)用場(chǎng)景突破,為產(chǎn)業(yè)智能賦能。
    的頭像 發(fā)表于 03-19 16:31 ?1342次閱讀