91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

2023 LLM技術報告—— LLM的工具和平臺

OSC開源社區(qū) ? 來源:OSC開源社區(qū) ? 2024-01-29 15:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在開源開發(fā)者圈子來看,2023 年是大模型 LLM 年、生成式 AI GenAI 年,LLM 領域大放異彩。

LLM 是利用深度學習和大數(shù)據(jù)訓練的人工智能系統(tǒng),專門設計來理解、生成和回應自然語言。這些模型通過分析大量的文本數(shù)據(jù)來學習語言的結構和用法,從而能夠執(zhí)行各種語言相關任務。

本篇將為大家介紹一下 LLM 相關的工具和平臺。

LLMOps

LLMOps 平臺專注于提供大模型的部署、運維和優(yōu)化服務,旨在幫助企業(yè)和開發(fā)者更高效地管理和使用這些先進的 AI 模型,快速完成從模型到應用的跨越,如 Dify.AI 、LangChain等。

ad9c3fe4-b9dd-11ee-8b88-92fbcf53809c.png

開源框架 LangChain 是一個幫助開發(fā)者使用 LLM 創(chuàng)建應用的開源框架,它可以將 LLM 與外部數(shù)據(jù)源進行連接,并允許與 LLM進行交互。LangChain 于 2022 年 10 月作為開源項目推出,并于2023 年 4 月注冊成立公司,累計獲得超過 3000 萬美元的投資,估值達到了 2 億美元。在 GitHub 上,LangChain 已經(jīng)獲得了超過 7 萬個 Star 和超過 2000 名貢獻者。

ada0e53a-b9dd-11ee-8b88-92fbcf53809c.png

大模型聚合平臺

大模型聚合平臺主要用于整合和管理多個大型機器學習模型,在聚合平臺之上,衍生出 MaaS(Model-as-a- Service,大模型即服務)的服務模式——通過提供統(tǒng)一的接口和框架,以更高效地部署、運行和優(yōu)化這些模型,Hugging Face、Replicate 以及 Gitee AI 均為 MaaS 平臺。

ada4e40a-b9dd-11ee-8b88-92fbcf53809c.png

Gitee AI 是開源中國旗下的 MaaS 平臺,提供模型、數(shù)據(jù)集,以及應用托管能力,同時接入了豐富的國產(chǎn)算力平臺,為開發(fā)者提供了更高效、實惠的微調(diào)方案,降低使用門檻,目前已進入內(nèi)測階段。

adb1bf72-b9dd-11ee-8b88-92fbcf53809c.png

開發(fā)工具

其它開發(fā)相關的 LLM 工具,如云原生構建多模態(tài)AI應用的工具 Jina,嵌入式數(shù)據(jù)庫 txtai 等。

adc3750a-b9dd-11ee-8b88-92fbcf53809c.png

比較有代表性的 LLM 開發(fā)工具有:

PromptPerfect:幫助用戶極致優(yōu)化給大模型的提示詞(prompt),使得對大語言模型提問時,可以獲得更理想的輸出。

adcfc8dc-b9dd-11ee-8b88-92fbcf53809c.png

txtai:用于語義搜索、LLM 編排和語言模型工作流的一體化嵌入數(shù)據(jù)庫,可以使用SQL、對象存儲、主題建模、圖形分析和多模態(tài)索引進行矢量搜索。

imgcook:專注以 Sketch、PSD、靜態(tài)圖片等形式的視覺稿作為輸入,通過智能化技術一鍵生成可維護的前端代碼,包含視圖代碼、數(shù)據(jù)字段綁定、組件代碼、部分業(yè)務邏輯代碼。

另一個視角來看,在大模型繁榮發(fā)展的背后,少不了工具和平臺的發(fā)力,如 LLMOps 平臺、大模型聚合平臺以及相關的開發(fā)工具,此外還有它們所依賴的最重要的資源——算力。在這些工具、平臺和資源的有力支撐下,大模型才得以一步一個臺階,引領全球開發(fā)者步入一個技術新時代。

add42648-b9dd-11ee-8b88-92fbcf53809c.png

以上內(nèi)容出自《2023 LLM 技術報告》,此報告濃墨重彩地梳理了 2023 年 LLM 的技術行情。報告整體圍繞 LLM Tech Map 梳理邏輯來展開,從基礎設施、大模型、Agent、AI 編程、工具和平臺,以及算力幾個方面,為開發(fā)者整理了當前 LLM 中最為熱門和硬核的技術領域以及相關的軟件產(chǎn)品和開源項目。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 深度學習
    +關注

    關注

    73

    文章

    5599

    瀏覽量

    124426
  • 大模型
    +關注

    關注

    2

    文章

    3662

    瀏覽量

    5197
  • LLM
    LLM
    +關注

    關注

    1

    文章

    347

    瀏覽量

    1338

原文標題:2023 LLM技術報告—— LLM的工具和平臺

文章出處:【微信號:OSC開源社區(qū),微信公眾號:OSC開源社區(qū)】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    芯盾時代如何破局LLM供應鏈漏洞危機

    隨著人工智能技術進入 2026 年的爆發(fā)期,大語言模型(LLM)已不再是實驗室里的原型,而是支撐企業(yè)核心業(yè)務的“數(shù)字引擎”。然而,LLM的強大高度依賴于全球化的AI生態(tài)。從海量的互聯(lián)網(wǎng)訓練數(shù)據(jù),到
    的頭像 發(fā)表于 02-04 16:53 ?1277次閱讀

    新品 | LLM-8850 Kit,高性能AI加速卡套件 DinMeter v1.1,1/32DIN標準嵌入式開發(fā)板

    LLM-8850KitLLM-8850Kit是一款面向邊緣AI與嵌入式計算場景的高性能AI加速卡套件,由LLM-8850CardAI加速卡與LLM-8850PiHat轉接板組成。核心加速卡
    的頭像 發(fā)表于 01-30 16:11 ?1090次閱讀
    新品 | <b class='flag-5'>LLM</b>-8850 Kit,高性能AI加速卡套件 DinMeter v1.1,1/32DIN標準嵌入式開發(fā)板

    小藝開放平臺平臺功能

    三種開發(fā)模式支撐智能體靈活構建 LLM模式 LLM 模式是一種基于大模型的智能體編排方式。開發(fā)者按需選擇大模型,根據(jù)業(yè)務邏輯編寫提示詞,以LLM為理解中樞,結合意圖識別、工具調(diào)用、對話
    發(fā)表于 01-30 15:24

    【CIE全國RISC-V創(chuàng)新應用大賽】+ 一種基于LLM的可通過圖像語音控制的元件庫管理工具

    一種基于LLM的可通過圖像語音控制的元件庫管理工具 項目概述 ? 庫存管理在我們的生活中幾乎無處不在,在許多小型的庫存當中,比如實驗室中的庫存管理,往往沒有人去專職維護,這就會導致在日積月累中逐漸
    發(fā)表于 11-12 19:32

    NVIDIA TensorRT LLM 1.0推理框架正式上線

    TensorRT LLM 作為 NVIDIA 為大規(guī)模 LLM 推理打造的推理框架,核心目標是突破 NVIDIA 平臺上的推理性能瓶頸。為實現(xiàn)這一目標,其構建了多維度的核心實現(xiàn)路徑:一方面,針對需
    的頭像 發(fā)表于 10-21 11:04 ?1200次閱讀

    TensorRT-LLM的大規(guī)模專家并行架構設計

    之前文章已介紹引入大規(guī)模 EP 的初衷,本篇將繼續(xù)深入介紹 TensorRT-LLM 的大規(guī)模專家并行架構設計與創(chuàng)新實現(xiàn)。
    的頭像 發(fā)表于 09-23 14:42 ?1123次閱讀
    TensorRT-<b class='flag-5'>LLM</b>的大規(guī)模專家并行架構設計

    DeepSeek R1 MTP在TensorRT-LLM中的實現(xiàn)與優(yōu)化

    TensorRT-LLM 在 NVIDIA Blackwell GPU 上創(chuàng)下了 DeepSeek-R1 推理性能的世界紀錄,Multi-Token Prediction (MTP) 實現(xiàn)了大幅提速
    的頭像 發(fā)表于 08-30 15:47 ?4473次閱讀
    DeepSeek R1 MTP在TensorRT-<b class='flag-5'>LLM</b>中的實現(xiàn)與優(yōu)化

    Votee AI借助NVIDIA技術加速方言小語種LLM開發(fā)

    了精準的方言及小語種大語言模型 (LLM)。此舉成功解決了數(shù)據(jù)稀缺、語言復雜及計算效率等挑戰(zhàn),為全球數(shù)以百萬計、缺乏數(shù)字化資源的語言使用者提供了技術支持。
    的頭像 發(fā)表于 08-20 14:21 ?869次閱讀

    如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署

    TensorRT-LLM 作為 NVIDIA 專為 LLM 推理部署加速優(yōu)化的開源庫,可幫助開發(fā)者快速利用最新 LLM 完成應用原型驗證與產(chǎn)品部署。
    的頭像 發(fā)表于 07-04 14:38 ?2211次閱讀

    Qualys TotalAI 降低 Gen AI 和 LLM 工作負載的風險

    “在AI時代,最大的風險不是不去創(chuàng)新,而是在沒有穩(wěn)固基礎的情況下創(chuàng)新。” 生成式人工智能 (Gen AI) 和大語言模型 (LLM) 正在革新各行各業(yè),但是,它們的快速應用帶來了嚴峻的網(wǎng)絡安全挑戰(zhàn)
    的頭像 發(fā)表于 06-25 14:18 ?502次閱讀
    Qualys TotalAI 降低 Gen AI 和 <b class='flag-5'>LLM</b> 工作負載的風險

    使用 llm-agent-rag-llamaindex 筆記本時收到的 NPU 錯誤怎么解決?

    使用 conda create -n ov-nb-demos python=3.11 創(chuàng)建運行 llm-agent-rag-llamaindex notebook 的環(huán)境。 執(zhí)行“創(chuàng)建
    發(fā)表于 06-23 06:26

    使用NVIDIA Triton和TensorRT-LLM部署TTS應用的最佳實踐

    針對基于 Diffusion 和 LLM 類別的 TTS 模型,NVIDIA Triton 和 TensorRT-LLM 方案能顯著提升推理速度。在單張 NVIDIA Ada Lovelace
    的頭像 發(fā)表于 06-12 15:37 ?1910次閱讀
    使用NVIDIA Triton和TensorRT-<b class='flag-5'>LLM</b>部署TTS應用的最佳實踐

    LM Studio使用NVIDIA技術加速LLM性能

    隨著 AI 使用場景不斷擴展(從文檔摘要到定制化軟件代理),開發(fā)者和技術愛好者正在尋求以更 快、更靈活的方式來運行大語言模型(LLM)。
    的頭像 發(fā)表于 06-06 15:14 ?1198次閱讀
    LM Studio使用NVIDIA<b class='flag-5'>技術</b>加速<b class='flag-5'>LLM</b>性能

    小白學大模型:從零實現(xiàn) LLM語言模型

    在當今人工智能領域,大型語言模型(LLM)的開發(fā)已經(jīng)成為一個熱門話題。這些模型通過學習大量的文本數(shù)據(jù),能夠生成自然語言文本,完成各種復雜的任務,如寫作、翻譯、問答等。https
    的頭像 發(fā)表于 04-30 18:34 ?1323次閱讀
    小白學大模型:從零實現(xiàn) <b class='flag-5'>LLM</b>語言模型

    詳解 LLM 推理模型的現(xiàn)狀

    2025年,如何提升大型語言模型(LLM)的推理能力成了最熱門的話題之一,大量優(yōu)化推理能力的新策略開始出現(xiàn),包括擴展推理時間計算、運用強化學習、開展監(jiān)督微調(diào)和進行提煉等。本文將深入探討LLM推理優(yōu)化
    的頭像 發(fā)表于 04-03 12:09 ?1640次閱讀
    詳解 <b class='flag-5'>LLM</b> 推理模型的現(xiàn)狀