91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

小身板大能量:樹莓派玩轉(zhuǎn) Phi-2、Mistral 和 LLaVA 等AI大模型~

上海晶珩電子科技有限公司 ? 2025-03-25 09:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

076e736c-0919-11f0-9434-92fbcf53809c.jpg

你是否想過在自己的設(shè)備上運行自己的大型語言模型(LLMs)或視覺語言模型(VLMs)?你可能有過這樣的想法,但是一想到要從頭開始設(shè)置、管理環(huán)境、下載正確的模型權(quán)重,以及你的設(shè)備是否能處理這些模型的不確定性,你可能就猶豫了。

讓我們更進(jìn)一步。想象一下,在自己的信用卡大小的設(shè)備上——比如Raspberry Pi ——運行自己的LLM或VLM。不可能嗎?完全不是。畢竟,我正在寫這篇帖子,所以這肯定是可能的。

確實可能,但為什么要這么做呢?

目前,在邊緣設(shè)備上運行LLM似乎有些牽強(qiáng)。但這個特定的利基用例應(yīng)該會隨著時間的推移而成熟,我們肯定會看到一些很酷的邊緣解決方案,這些解決方案采用完全本地的生成式AI解決方案,在邊緣設(shè)備上運行。

這也是為了探索可能性的極限。如果能在計算規(guī)模的這一極端實現(xiàn),那么在Raspberry Pi 和大型強(qiáng)大服務(wù)器GPU之間的任何級別上都可以實現(xiàn)。

傳統(tǒng)上,邊緣AI與計算機(jī)視覺緊密相連。探索在邊緣部署LLMs和VLMs為這個新興領(lǐng)域增添了一個令人興奮的維度。

最重要的是,我只是想用我最近購買的Raspberry Pi 5做一些有趣的事情。

那么,我們?nèi)绾卧赗aspberry Pi 上實現(xiàn)這一切呢?使用Ollama!

什么是Ollama?

Ollama已經(jīng)成為在個人電腦上運行本地LLMs的最佳解決方案之一,而無需處理從頭開始設(shè)置的麻煩。只需幾條命令,就可以毫無問題地設(shè)置好一切。在我的經(jīng)驗中,它完全自給自足,并且在多個設(shè)備和模型上都能完美運行。它甚至提供了一個用于模型推理的REST API,因此你可以讓它在Raspberry Pi 上運行,并從你的其他應(yīng)用程序和設(shè)備中調(diào)用它(如果你愿意的話)。

還有Ollama Web UI,這是一個與Ollama無縫運行的漂亮的人工智能用戶界面(UI)/用戶體驗(UX),適合那些對命令行界面感到不安的人。如果你愿意的話,它基本上是一個本地的ChatGPT界面。

Ollama和Ollama Web UI還支持VLM,如LLaVA,這為邊緣生成式AI用例打開了更多的大門。

技術(shù)要求

你只需要以下設(shè)備:

Raspberry Pi 5(或速度較慢的Raspberry Pi 4)——選擇8GB RAM版本以容納7B模型。

SD卡——至少16GB,容量越大,可容納的模型越多。預(yù)先加載有合適的操作系統(tǒng),如Raspbian Bookworm或Ubuntu。

互聯(lián)網(wǎng)連接

就像我之前提到的,在Raspberry Pi 上運行Ollama已經(jīng)接近硬件譜系的極端。理論上,任何比Raspberry Pi 更強(qiáng)大的設(shè)備(只要它運行Linux發(fā)行版并具有類似的內(nèi)存容量),都應(yīng)該能夠運行Ollama和本文中討論的模型。

1. 安裝Ollama

為了在Raspberry Pi 上安裝Ollama,我們將避免使用Docker以節(jié)省資源。

在終端中運行

curl https://ollama.ai/install.sh | sh

運行上述命令后,你應(yīng)該會看到與下面類似的圖像。

07aa9018-0919-11f0-9434-92fbcf53809c.png

就像輸出所說的那樣,轉(zhuǎn)到0.0.0.0:11434以驗證Ollama是否正在運行。由于我們使用的是Raspberry Pi ,所以看到“WARNING: No NVIDIA GPU detected. Ollama will run in CPU-only mode.”(警告:未檢測到NVIDIA GPU。Ollama將以僅CPU模式運行。)是正常的。但是,如果你在這些說明中看到的是應(yīng)該具有NVIDIA GPU的設(shè)備,那么可能出現(xiàn)了問題。

2. 通過命令行運行LLMs

查看官方the official Ollama model library,了解可以使用Ollama運行的模型列表。在8GB的Raspberry Pi 上,大于7B的模型將無法容納。讓我們使用Phi-2,一個來自微軟推出的2.7B LLM,現(xiàn)在在MIT許可下。

在終端中運行

ollama run phi

一旦你看到與下面類似的輸出,你就已經(jīng)在Raspberry Pi 上運行了一個LLM!就是這么簡單。

07c68d18-0919-11f0-9434-92fbcf53809c.png

以下是與Phi-2 2.7B的交互。顯然,你不會得到相同的輸出,但你應(yīng)該明白了

07e7b07e-0919-11f0-9434-92fbcf53809c.png

你可以嘗試其他模型,如Mistral、Llama-2等,只需確保SD卡上有足夠的空間存儲模型權(quán)重。

當(dāng)然,模型越大,輸出速度就越慢。在Phi-2 2.7B上,我可以獲得大約每秒4個令牌的速度。但是,使用Mistral 7B,生成速度下降到大約每秒2個令牌。一個令牌大致相當(dāng)于一個單詞。

以下是與Mistral 7B的交互

07feb92c-0919-11f0-9434-92fbcf53809c.png

現(xiàn)在我們已經(jīng)在Raspberry Pi 上運行了LLMs,但還沒有結(jié)束。終端并不適合所有人。讓我們也讓Ollama Web UI運行起來!

3. 安裝和運行Ollama Web UI

我們將遵循Ollama Web UI GitHub存儲庫official Ollama Web UI GitHub Repository(https://github.com/open-webui/open-webui)上的說明,在不使用Docker的情況下進(jìn)行安裝。它建議Node.js版本至少為20.10,因此我們將遵循這一建議。它還建議Python版本至少為3.11,但Raspbian OS已經(jīng)為我們安裝了該版本。

我們必須先安裝Node.js。在終端中運行

curl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash - &&\sudo apt-get install -y nodejs

對于未來的讀者,如果需要,可以將20.x更改為更合適的版本。

然后運行下面的代碼塊。

git clone https://github.com/ollama-webui/ollama-webui.gitcd ollama-webui/
# Copying required .env filecp -RPp example.env .env
# Building Frontend Using Nodenpm inpm run build
# Serving Frontend with the Backendcd ./backendpip install -r requirements.txt --break-system-packages sh start.sh

這是對GitHub上提供的內(nèi)容的輕微修改。請注意,為了簡潔和方便,我們沒有遵循最佳實踐,比如使用虛擬環(huán)境,并且我們使用了--break-system-packages標(biāo)志。如果遇到找不到uvicorn之類的錯誤,請重新啟動終端會話。

如果一切順利,你應(yīng)該能夠通過Raspberry Pi 上的http://0.0.0.0:8080或同一網(wǎng)絡(luò)上的另一臺設(shè)備通過http://:8080/訪問Ollama Web UI。

081ed07c-0919-11f0-9434-92fbcf53809c.png

創(chuàng)建賬戶并登錄后,你應(yīng)該會看到與下面類似的圖像。

0838c9aa-0919-11f0-9434-92fbcf53809c.png

如果你之前下載了一些模型權(quán)重,你應(yīng)該會在下面的下拉菜單中看到它們。如果沒有,你可以轉(zhuǎn)到設(shè)置以下載模型??赡艿哪P蜁霈F(xiàn)在這里

085d6d50-0919-11f0-9434-92fbcf53809c.png

如果你想要下載新的模型,去Settings > Models to pull models

087b42a8-0919-11f0-9434-92fbcf53809c.png

整個界面非常簡潔直觀,因此我不會過多解釋。這確實是一個非常出色的開源項目。

以下是通過Ollama Web UI與Mistral 7B的交互示例

08976c62-0919-11f0-9434-92fbcf53809c.png

4. 通過Ollama Web UI運行視覺語言模型(VLMs)

就像我在本文開頭提到的那樣,我們還可以運行VLMs。讓我們運行一個流行的開源VLM——LLaVA,它恰好也被Ollama支持。為此,請通過界面拉取“l(fā)lava”以下載其權(quán)重。

不幸的是,與大型語言模型(LLMs)不同,Raspberry Pi 上的設(shè)置需要相當(dāng)長的時間來解釋圖像。下面的示例大約需要6分鐘來處理。大部分時間可能是因為圖像方面的處理尚未得到適當(dāng)優(yōu)化,但這種情況在未來肯定會改變。令牌生成速度約為每秒2個令牌。

總結(jié)

至此,我們已經(jīng)基本完成了本文的目標(biāo)?;仡櫼幌?,我們已經(jīng)成功使用Ollama和Ollama Web UI在Raspberry Pi 上運行了Phi-2、Mistral和LLaVA等LLMs和VLMs。

我完全可以想象出幾個在Raspberry Pi (或其他小型邊緣設(shè)備)上托管本地LLMs的用例,特別是如果我們使用Phi-2等大小的模型,每秒4個令牌的速度對于某些用例中的流式傳輸來說似乎是可接受的速度。

“小型”LLMs和VLMs領(lǐng)域(考慮到其“大型”的指定,這一名稱有些自相矛盾)是一個活躍的研究領(lǐng)域,最近發(fā)布了相當(dāng)多的模型。希望這一新興趨勢能夠繼續(xù)下去,并發(fā)布更多高效且緊湊的模型!在未來幾個月里,這無疑是值得關(guān)注的。

免責(zé)聲明:作者與Ollama或Ollama Web UI沒有關(guān)聯(lián)。所有觀點均為作者個人的看法,不代表任何組織。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39820

    瀏覽量

    301489
  • 樹莓派
    +關(guān)注

    關(guān)注

    122

    文章

    2079

    瀏覽量

    110480
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3651

    瀏覽量

    5191
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    樹莓5還是香橙5 Pro?兩款熱門開發(fā)板的詳細(xì)對比

    方面采用了不同的實現(xiàn)路徑: 1)樹莓5 :主板本身不具備專用的AI加速引擎。用戶可通過官方AI HAT+擴(kuò)展板(如Hailo-10H芯片)獲得高達(dá)40TOPS的算力,用于在本地運行大
    發(fā)表于 03-04 19:29

    推理<2ms!Ultralytics最新YOLO26+樹莓+國產(chǎn)AI加速卡實現(xiàn) 500 FPS 端側(cè) AI 性能巔峰!

    關(guān)鍵詞:YOLO26、樹莓、國產(chǎn)AI加速卡、M5Stack、邊緣AI速度快、功耗低、純國產(chǎn),樹莓
    的頭像 發(fā)表于 01-30 16:11 ?3174次閱讀
    推理<<b class='flag-5'>2</b>ms!Ultralytics最新YOLO26+<b class='flag-5'>樹莓</b><b class='flag-5'>派</b>+國產(chǎn)<b class='flag-5'>AI</b>加速卡實現(xiàn) 500 FPS 端側(cè) <b class='flag-5'>AI</b> 性能巔峰!

    NVIDIA攜手Mistral AI發(fā)布全新開源大語言模型系列

    全新 Mistral 3 系列涵蓋從前沿級到緊湊型模型,針對 NVIDIA 平臺進(jìn)行了優(yōu)化,助力 Mistral AI 實現(xiàn)云到邊緣分布式智能愿景。
    的頭像 發(fā)表于 12-13 09:58 ?1252次閱讀

    基于樹莓(RaspberryPi)構(gòu)建高效實時監(jiān)控系統(tǒng)

    由于樹莓體積小、可開發(fā)性強(qiáng)特性,常被用于視頻監(jiān)控場景中,結(jié)合 ZeroNews,可實現(xiàn)用戶在任意位置都能實時安全得訪問視頻監(jiān)控系統(tǒng)。 先決條件:樹莓
    的頭像 發(fā)表于 09-22 15:14 ?1316次閱讀
    基于<b class='flag-5'>樹莓</b><b class='flag-5'>派</b>(RaspberryPi)構(gòu)建高效實時監(jiān)控系統(tǒng)

    如何使用樹莓與OpenCV實現(xiàn)面部和運動追蹤的云臺系統(tǒng)?

    大家好,這是一個樹莓和OpenCV的連載專題。使用樹莓與OpenCV實現(xiàn)姿態(tài)估計和面部特征點追蹤使用樹莓
    的頭像 發(fā)表于 08-14 17:45 ?1639次閱讀
    如何使用<b class='flag-5'>樹莓</b><b class='flag-5'>派</b>與OpenCV實現(xiàn)面部和運動追蹤的云臺系統(tǒng)?

    樹莓操作系統(tǒng):版本、特性及設(shè)置完整指南!

    樹莓操作系統(tǒng)是什么?樹莓操作系統(tǒng)是由樹莓基金會專為樹莓
    的頭像 發(fā)表于 07-28 18:26 ?1458次閱讀
    <b class='flag-5'>樹莓</b><b class='flag-5'>派</b>操作系統(tǒng):版本、特性及設(shè)置完整指南!

    Arm方案 基于Arm架構(gòu)的邊緣側(cè)設(shè)備(樹莓或 NVIDIA Jetson Nano)上部署PyTorch模型

    本文將為你展示如何在樹莓或 NVIDIA Jetson Nano 基于 Arm 架構(gòu)的邊緣側(cè)設(shè)備上部署 PyTorch 模型。
    的頭像 發(fā)表于 07-28 11:50 ?2879次閱讀

    新品上線|Maix4-HAT 大模型 AI 加速套件 ,一鍵解鎖樹莓多模態(tài) AI 力量!

    還在為邊緣端的大模型運行發(fā)愁?還在為算力不夠、模型太大束手無策?Maix4-HAT,一款專為端側(cè)大模型而生的高性能AI加速模塊,現(xiàn)已正式上線淘寶!淘寶:https://item.tao
    的頭像 發(fā)表于 07-18 18:35 ?1703次閱讀
    新品上線|Maix4-HAT 大<b class='flag-5'>模型</b> <b class='flag-5'>AI</b> 加速套件 ,一鍵解鎖<b class='flag-5'>樹莓</b><b class='flag-5'>派</b>多模態(tài) <b class='flag-5'>AI</b> 力量!

    樹莓6 傳聞:發(fā)布日期與規(guī)格!

    每當(dāng)我想再為我的收藏增添一款樹莓時,總會在是立即購買還是等待硬件更強(qiáng)大的下一代之間猶豫不決。但新樹莓型號的發(fā)布往往容易被錯過,尤其是在你的信息流被病毒式傳播的貓咪視頻占據(jù)時。因此,
    的頭像 發(fā)表于 07-11 16:21 ?2368次閱讀
    <b class='flag-5'>樹莓</b><b class='flag-5'>派</b>6 傳聞:發(fā)布日期與規(guī)格!

    樹莓小技巧:無需鍵盤或顯示器,如何通過WiFi設(shè)置樹莓?

    樹莓是一款小巧便攜的USB供電計算機(jī),可以隱藏起來用于小型項目,如網(wǎng)絡(luò)服務(wù)器或家庭自動化。通常,設(shè)置樹莓需要鍵盤和顯示器來編輯和查看樹莓
    的頭像 發(fā)表于 06-26 15:41 ?1572次閱讀
    <b class='flag-5'>樹莓</b><b class='flag-5'>派</b>小技巧:無需鍵盤或顯示器,如何通過WiFi設(shè)置<b class='flag-5'>樹莓</b><b class='flag-5'>派</b>?

    樹莓分類器:用樹莓識別不同型號的樹莓!

    在本教程系列的第一部分中,您將學(xué)習(xí)如何使用樹莓AI攝像頭來檢測不同的樹莓型號。本系列由DavidPlowman創(chuàng)建,他是
    的頭像 發(fā)表于 06-13 16:39 ?1325次閱讀
    <b class='flag-5'>樹莓</b><b class='flag-5'>派</b>分類器:用<b class='flag-5'>樹莓</b><b class='flag-5'>派</b>識別不同型號的<b class='flag-5'>樹莓</b><b class='flag-5'>派</b>!

    樹莓“揪出”家里的耗電怪獸!

    在本應(yīng)用中,我們將使用樹莓設(shè)置一個CE電流監(jiān)測器,并通過網(wǎng)頁界面顯示電路的電流讀數(shù)。本項目使用的組件硬件組件樹莓2ModelBx112通
    的頭像 發(fā)表于 06-04 15:33 ?1576次閱讀
    用<b class='flag-5'>樹莓</b><b class='flag-5'>派</b>“揪出”家里的耗電怪獸!

    樹莓“吉尼斯世界記錄”:將樹莓的性能發(fā)揮到極致的項目!

    完成的許多酷炫項目。這就引出了一個問題——你該如何將樹莓的性能推向極限呢?歷經(jīng)13年的項目實踐和樹莓各型號的發(fā)展,你會驚訝地發(fā)現(xiàn),樹莓
    的頭像 發(fā)表于 05-22 16:53 ?1548次閱讀
    <b class='flag-5'>樹莓</b><b class='flag-5'>派</b>“吉尼斯世界記錄”:將<b class='flag-5'>樹莓</b><b class='flag-5'>派</b>的性能發(fā)揮到極致的項目!

    樹莓 Zero 打造的智能漫游車!

    使用PXFMini和樹莓Zero打造您自己的自主漫游車。本項目所用組件硬件組件ErleRoboticsPXFmini×1樹莓Zero×1樹莓
    的頭像 發(fā)表于 05-13 16:39 ?1122次閱讀
    用 <b class='flag-5'>樹莓</b><b class='flag-5'>派</b> Zero 打造的智能漫游車!

    4臺樹莓5跑動大模型!DeepSeek R1分布式實戰(zhàn)!

    導(dǎo)語“用4臺樹莓5組網(wǎng),輕松運行大模型——這可能是2025年最顛覆認(rèn)知的開源AI項目!”GitHub明星項目distributed-llama最新實戰(zhàn)案例曝光:通過獨創(chuàng)的動態(tài)
    的頭像 發(fā)表于 03-24 14:50 ?1422次閱讀
    4臺<b class='flag-5'>樹莓</b><b class='flag-5'>派</b>5跑動大<b class='flag-5'>模型</b>!DeepSeek R1分布式實戰(zhàn)!