91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

deepin 25+DeepSeek-R1+Ollama本地搭建全流程

深度操作系統(tǒng) ? 來源:深度操作系統(tǒng) ? 2025-02-19 10:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

日前,為了使 deepin 和 UOS AI 更加開放,我們正式開放了 UOS AI 的模型接入接口。這意味著,所有符合 OpenAI 接口格式的大模型,都可以無縫接入 UOS AI。大家可以根據(jù)自身需求,自由接入心儀的大模型,讓 UOS AI 成為更具個(gè)性化的智能伙伴。

在上一篇文章中,我們?yōu)榇蠹以敿?xì)介紹了 UOS AI 如何離線或在線接入 DeepSeek-R1 模型。今天我們將進(jìn)一步深入,為大家詳細(xì)講解如何借助 Ollama 在本地部署并運(yùn)行 DeepSeek-R1 模型。

* 感謝社區(qū)用戶「Feelup」提供的教程,本次本地部署在 deepin 25 Preview 環(huán)境中通過Ollama 完成。

1

Ollama 部署

進(jìn)入 Ollama 網(wǎng)站并復(fù)制 Linux 下需要使用的命令,并粘貼到終端中執(zhí)行。

51bcb4a0-ede0-11ef-9310-92fbcf53809c.png

Ollama下載完成后,通過以下命令可查看當(dāng)前 Ollama 版本

ollama --version

2

Ollama 服務(wù)配置

說明1:若您只希望簡單使用,可跳過此處服務(wù)配置。 說明2:此處 Ollama 服務(wù)配置主要調(diào)整了 Ollama 下載模型文件的保存位置和服務(wù)訪問限制調(diào)整。

sudo vim /etc/systemd/system/ollama.service
默認(rèn)的配置文件內(nèi)容
[Unit]
Description=Ollama Service
After=network-online.target


[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"


[Install]
WantedBy=default.target

非 deepin 25 服務(wù)修改參考

該 Ollama 服務(wù)配置適用于 Ubuntu、RedHat、deepin 23 等大多數(shù) Linux 系統(tǒng)

[Unit]
Description=Ollama Service
After=network-online.target


[Service]
ExecStart=/usr/local/bin/ollama serve
User=nano      #此處為當(dāng)前的用戶名(可選:如果調(diào)整了模型的下載保存位置的話,可解決權(quán)限問題)
Group=nano     #此處為當(dāng)前的用戶名(可選:如果調(diào)整了模型的下載保存位置的話,可解決權(quán)限問題)
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_MODELS=/media/nano/Date/Ollama_Models"   #可選:設(shè)置模型的下載位置
Environment="OLLAMA_HOST=0.0.0.0:11434"  #可選:設(shè)置可訪問ollama服務(wù)的地址與端口(此處表示任意IP地址都可以從端口11434訪問此ollama服務(wù))


[Install]
WantedBy=default.target

deepin 25 服務(wù)修改參考

由于 deepin 25 采用了不可變系統(tǒng)設(shè)計(jì),Ollama 安裝完成后,程序的執(zhí)行文件位置出現(xiàn)了一些變化。

51c7f7ca-ede0-11ef-9310-92fbcf53809c.png

在進(jìn)行 Ollama 服務(wù)配置時(shí)也需要做相應(yīng)的修改(否則可能會出現(xiàn)服務(wù)運(yùn)行異常)

[Unit]
Description=Ollama Service
After=network-online.target


[Service]
ExecStart=/var/usrlocal/bin/ollama serve    #此處調(diào)整了ollama程序的位置
User=nano      #此處為當(dāng)前的用戶名(可選:如果調(diào)整了模型的下載保存位置的話,可解決權(quán)限問題)
Group=nano     #此處為當(dāng)前的用戶名(可選:如果調(diào)整了模型的下載保存位置的話,可解決權(quán)限問題)
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_MODELS=/media/nano/Date/Ollama_Models"   #可選:設(shè)置模型的下載位置
Environment="OLLAMA_HOST=0.0.0.0:11434"  #可選:設(shè)置可訪問ollama服務(wù)的地址與端口(此處表示任意IP地址都可以從端口11434訪問此ollama服務(wù))


[Install]
WantedBy=default.target

3

Ollama服務(wù)啟動(dòng)

更新服務(wù)配置:

sudo systemctl daemon-reload
重啟 Ollama 服務(wù):
sudo systemctl restart ollama.service
查看 Ollama 服務(wù)運(yùn)行狀態(tài):
systemctl status ollama.service

4

DeepSeek-R1模型下載

在 Ollama 站內(nèi)檢索您所需要下載的模型名稱關(guān)鍵字,根據(jù)個(gè)人電腦配置選擇合適大小的參數(shù)模型,點(diǎn)擊復(fù)制模型下載命令,并將命令粘貼到終端中進(jìn)行下載即可。

51e61566-ede0-11ef-9310-92fbcf53809c.png

本例選擇下載 1.5b 參數(shù)量大小的模型,模型下載完成后將自動(dòng)運(yùn)行,此時(shí)可以使用如下命令在「終端」中與它進(jìn)行對話:

ollama run deepseek-r1:1.5b
下面是一個(gè)簡單的運(yùn)行示例

51fdb05e-ede0-11ef-9310-92fbcf53809c.png

5

在 UOS AI 中添加 DeepSeek-R1

打開 UOS AI 的「設(shè)置」選項(xiàng),在「模型配置」中選擇「私有化部署模型-添加」,進(jìn)入 UOS AI 的模型添加界面。

522e78b0-ede0-11ef-9310-92fbcf53809c.png

完成添加窗口中的內(nèi)容填寫,并點(diǎn)擊確定即可,本例中使用到的信息參考如下:

賬號名稱:DeepSeek-R1 模型名:deepseek-r1:1.5b 請求地址:http://127.0.0.1:11434/v1

5246d19e-ede0-11ef-9310-92fbcf53809c.png

填寫完畢并提交確定后,程序會驗(yàn)證對應(yīng)的大模型是否可用,驗(yàn)證成功后,DeepSeek-R1 便被添加至本地模型。

52680972-ede0-11ef-9310-92fbcf53809c.png

隨后即可在 UOS AI 中選擇 DeepSeek-R1 模型進(jìn)行使用。

52a561a0-ede0-11ef-9310-92fbcf53809c.png

注:以上本地部署流程不僅僅適用于 DeepSeek-R1 模型,同樣也適用于其它模型的本地部署。

附錄:

[1]deepin UOS AI 離線、在線接入 DeepSeek-R1 教程 [2] deepin UOS AI 如何配置自定義模型

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39794

    瀏覽量

    301456
  • UOS系統(tǒng)
    +關(guān)注

    關(guān)注

    0

    文章

    11

    瀏覽量

    2449
  • DeepSeek
    +關(guān)注

    關(guān)注

    2

    文章

    835

    瀏覽量

    3272

原文標(biāo)題:deepin 25 + DeepSeek-R1 + Ollama 本地搭建全流程

文章出處:【微信號:linux_deepin,微信公眾號:深度操作系統(tǒng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    deepin 25上安裝OpenClaw的步驟及飛書接入方法

    本篇將從普通用戶視角,分享在 deepin 25 上安裝 OpenClaw 的步驟及飛書接入方法。
    的頭像 發(fā)表于 02-05 15:17 ?1331次閱讀
    在<b class='flag-5'>deepin</b> <b class='flag-5'>25</b>上安裝OpenClaw的步驟及飛書接入方法

    本地部署openWebUI + ollama+DeepSeek 打造智能知識庫并實(shí)現(xiàn)遠(yuǎn)程訪問

    。 DeepSeek 作為一個(gè)開源的大語言模型,我們可以通過 ZeroNews + openWebUI + ollama的方式,輕松的在本地私有化部署 DeepSeek,不受網(wǎng)絡(luò)攻擊影
    的頭像 發(fā)表于 09-10 16:41 ?5391次閱讀
    <b class='flag-5'>本地</b>部署openWebUI + <b class='flag-5'>ollama+DeepSeek</b> 打造智能知識庫并實(shí)現(xiàn)遠(yuǎn)程訪問

    速看!EASY-EAI教你離線部署Deepseek R1大模型

    1.Deepseek簡介DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研發(fā)的推理模型。DeepSeek-R1采用強(qiáng)化學(xué)習(xí)進(jìn)行后訓(xùn)練,旨在提升推理能力,尤其擅
    的頭像 發(fā)表于 07-25 15:22 ?1382次閱讀
    速看!EASY-EAI教你離線部署<b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大模型

    【VisionFive 2單板計(jì)算機(jī)試用體驗(yàn)】3、開源大語言模型部署

    1、ollama平臺搭建 ollama可以快速地部署開源大模型,網(wǎng)址為https://ollama.com, 試用該平臺,可以在多平臺上部署
    發(fā)表于 07-19 15:45

    深度操作系統(tǒng)deepin 25全面支持凹語言

    近日,deepin(深度)社區(qū)宣布,deepin 25 現(xiàn)已完成對國產(chǎn)通用編程語言凹語言 (Wa-Lang) 的兼容性測試。在 deepin 25
    的頭像 發(fā)表于 07-10 15:26 ?1015次閱讀
    深度操作系統(tǒng)<b class='flag-5'>deepin</b> <b class='flag-5'>25</b>全面支持凹語言

    【幸狐Omni3576邊緣計(jì)算套件試用體驗(yàn)】CPU部署DeekSeek-R1模型(1B和7B)

    ://ollama.com/install.sh | sh 命令輸出如下: 2.3 ollama下載模型 安裝好了ollama之后,我們就可以使用ollama下載
    發(fā)表于 04-21 00:39

    DeepSeek R1模型本地部署與產(chǎn)品接入實(shí)操

    針對VS680/SL1680系列大算力芯片,我們的研發(fā)團(tuán)隊(duì)正在研究將蒸餾后的輕量級DeepSeek模型(DeepSeek-R1-Distill-Qwen-1.5B)部署到SOC本地,以便應(yīng)用于相關(guān)
    的頭像 發(fā)表于 04-19 16:32 ?763次閱讀
    <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>模型<b class='flag-5'>本地</b>部署與產(chǎn)品接入實(shí)操

    SL1680 SoC本地運(yùn)行DeepSeek R1 1.5B大模型

    深蕾半導(dǎo)體SL1680 SoC本地成功運(yùn)行DeepSeek R1 Distill Qwen2.5 1.5B大模型,展示了執(zhí)行過程及本地小參數(shù)大模型與云端大模型結(jié)合的應(yīng)用場景,并簡要介紹
    的頭像 發(fā)表于 04-17 17:09 ?936次閱讀
    SL1680 SoC<b class='flag-5'>本地</b>運(yùn)行<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b> 1.5B大模型

    deepin 25系統(tǒng)安裝常見問題

    隨著 deepin 25 系列版本的發(fā)布,我們特別推出 deepin Q&A 常見問題指南,旨在幫助您輕松應(yīng)對安裝、升級及使用過程中可能遇到的常見問題。
    的頭像 發(fā)表于 04-14 14:08 ?5690次閱讀
    <b class='flag-5'>deepin</b> <b class='flag-5'>25</b>系統(tǒng)安裝常見問題

    ORinNano離線部署Deepseek R1大模型教程

    ORinNano離線部署Deepseek R1大模型教程
    的頭像 發(fā)表于 04-10 15:32 ?1356次閱讀
    ORinNano離線部署<b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大模型教程

    博實(shí)結(jié)完成DeepSeek大模型本地化部署

    近日,公司完成DeepSeek R1 671B大模型本地化部署。通過構(gòu)建自主可控的AI基礎(chǔ)設(shè)施,公司同步實(shí)現(xiàn)研發(fā)智能升級、研發(fā)成本重構(gòu)、數(shù)據(jù)安全閉環(huán)與應(yīng)用場景突破,為產(chǎn)業(yè)智能化賦能。
    的頭像 發(fā)表于 03-19 16:31 ?1339次閱讀

    如何在RakSmart服務(wù)器上用Linux系統(tǒng)部署DeepSeek

    ://ollama.com/install.sh | sh`,并配置服務(wù)監(jiān)聽所有網(wǎng)絡(luò)接口(修改 `/etc/systemd/system/ollama.service` 添加 `OLLAMA_HOST=0.0.0.0`)。 2.
    的頭像 發(fā)表于 03-14 11:53 ?780次閱讀

    如何使用OpenVINO運(yùn)行DeepSeek-R1蒸餾模型

    DeepSeek-R1在春節(jié)期間引發(fā)了全球科技界的熱度,DeepSeek-R1 是由 DeepSeek 開發(fā)的開源推理模型,用于解決需要邏輯推理、數(shù)學(xué)問題解決和實(shí)時(shí)決策的任務(wù)。
    的頭像 發(fā)表于 03-12 13:45 ?2386次閱讀
    如何使用OpenVINO運(yùn)行<b class='flag-5'>DeepSeek-R1</b>蒸餾模型

    在英特爾哪吒開發(fā)套件上部署DeepSeek-R1的實(shí)現(xiàn)方式

    隨著人工智能技術(shù)的快速發(fā)展,企業(yè)對 AI 模型的部署方式有了更多選擇。本地部署 DeepSeek-R1 模型具有以下顯著優(yōu)勢,使其成為許多企業(yè)和開發(fā)者的首選。
    的頭像 發(fā)表于 03-12 13:38 ?1122次閱讀
    在英特爾哪吒開發(fā)套件上部署<b class='flag-5'>DeepSeek-R1</b>的實(shí)現(xiàn)方式

    在MAC mini4上安裝Ollama、Chatbox及模型交互指南

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力 一,簡介 本文將指導(dǎo)您如何在MAC mini4上安裝Ollama和Chatbox,并下載Deepseek-r1:32b模型。Ollama是一個(gè)用于管理和運(yùn)行
    的頭像 發(fā)表于 03-11 17:17 ?1657次閱讀
    在MAC mini4上安裝<b class='flag-5'>Ollama</b>、Chatbox及模型交互指南