91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

中文對話式大語言模型Firefly-2b6開源,使用210萬訓練數(shù)據(jù)

深度學習自然語言處理 ? 來源:YeungNLP ? 2023-04-14 10:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在文章Firefly(流螢): 中文對話式大語言模型中,我們介紹了關于Firefly(流螢)項目的工作,并且分享了我們訓練的firefly-1b4模型。這是Firefly項目開源的第一個模型,雖然取得了還不錯的效果,但無論是訓練數(shù)據(jù)還是模型參數(shù)量,都還有很大的優(yōu)化空間。

所以,在firefly-1b4實驗的基礎上,我們對訓練數(shù)據(jù)進行清洗,并且增加了數(shù)據(jù)量,得到210萬數(shù)據(jù),并用它訓練得到了firefly-2b6模型。

在本文中,我們將對該模型進行分享和介紹。與firefly-1b4相比,firefly-2b6的代碼生成能力取得了較大的進步,并且在古詩詞生成、對聯(lián)、作文、開放域生成等方面也有不錯的提升。

firefly-1b4和firefly-2b6的訓練配置如下表所示。無論是訓練數(shù)據(jù)量,還是訓練步數(shù),firefly-2b6都更加充分。

參數(shù) firefly-1b4 firefly-2b6
batch size 16 8
learning rate 3e-5 3e-5
warmup step 3000 3000
lr schedule cosine cosine
max length 512 512
training step 90k 260k
訓練集規(guī)模 160萬 210萬

項目地址:

https://github.com/yangjianxin1/Firefly

模型權(quán)重鏈接見文末。

模型使用

使用如下代碼即可使用模型:

from transformers import BloomTokenizerFast, BloomForCausalLM
device = 'cuda'
path = 'YeungNLP/firefly-2b6'


tokenizer = BloomTokenizerFast.from_pretrained(path)
model = BloomForCausalLM.from_pretrained(path)
model.eval()
model = model.to(device)
text = input('User:')
while True:
    text = '{}'.format(text)
    input_ids = tokenizer(text, return_tensors="pt").input_ids
    input_ids = input_ids.to(device)
outputs=model.generate(input_ids,max_new_tokens=250,do_sample=True,top_p=0.7,temperature=0.35,
                             repetition_penalty=1.2, eos_token_id=tokenizer.eos_token_id)
    rets = tokenizer.batch_decode(outputs)
    output = rets[0].strip().replace(text, "").replace('', "")
    print("Firefly:{}".format(output))
    text = input('User:')

代碼生成

盡管在訓練集中,代碼的數(shù)據(jù)量不多,但令人驚喜的是,firefly-2b6已經(jīng)具備一定的代碼生成能力。

在筆者的實測中,對于一些編程題,firefly-2b6生成的代碼可以做到無需修改,直接運行成功,并且得到正確的答案。下面將展示一些編程題的生成例子。

示例1:幫我用python寫一個冒泡排序算法。

dee31870-d9b9-11ed-bfe3-dac502259ad0.png

示例2:用python實現(xiàn)一個快速排序算法,輸入為一個數(shù)組,返回排序好之后的數(shù)組。

deec2f32-d9b9-11ed-bfe3-dac502259ad0.png

示例3:用python寫一個二分查找算法。

defb67b8-d9b9-11ed-bfe3-dac502259ad0.png

示例4:寫一個函數(shù),計算數(shù)組中偶數(shù)的個數(shù),輸入為數(shù)組,輸出為偶數(shù)的個數(shù)。

df04d12c-d9b9-11ed-bfe3-dac502259ad0.png

示例5:用html生成一個教務管理系統(tǒng)的登錄界面,要求包含用戶名、密碼輸入框和登錄按鈕。

df0d21ce-d9b9-11ed-bfe3-dac502259ad0.png

該html代碼在瀏覽器中的效果如下圖:

df142ce4-d9b9-11ed-bfe3-dac502259ad0.png

其他樣例

同樣,我們也對文言文、古詩詞、文章生成等數(shù)據(jù)進行了清洗,提高數(shù)據(jù)的質(zhì)量。實測下來,我們發(fā)現(xiàn)firefly-2b6的生成效果,確實提升了不少。

數(shù)據(jù)質(zhì)量的優(yōu)化,對文言文翻譯任務的提升,尤為明顯。在訓練firefly-1b4時,文言文數(shù)據(jù)為較短的句子對。但在訓練firefly-2b6時,我們使用了較長篇幅的文本對。

下面為一些實測的例子。

df1b8c28-d9b9-11ed-bfe3-dac502259ad0.png

df286d30-d9b9-11ed-bfe3-dac502259ad0.png

df352c5a-d9b9-11ed-bfe3-dac502259ad0.png

df3dc2e8-d9b9-11ed-bfe3-dac502259ad0.png

df457308-d9b9-11ed-bfe3-dac502259ad0.png

df4cf9ac-d9b9-11ed-bfe3-dac502259ad0.png

df5354dc-d9b9-11ed-bfe3-dac502259ad0.png

df59bf2a-d9b9-11ed-bfe3-dac502259ad0.png

df615a96-d9b9-11ed-bfe3-dac502259ad0.png

df6d2b96-d9b9-11ed-bfe3-dac502259ad0.png

文章小結(jié)

雖然firefly-2b6已經(jīng)初步具備代碼生成能力,但由于訓練集中的代碼數(shù)據(jù)的數(shù)量不多,對于一些編程題,效果不如人意。我們覺得仍有非常大的優(yōu)化空間,后續(xù)我們也將收集更多代碼數(shù)據(jù),提升模型的代碼能力。

經(jīng)過firefly-1b4和firefly-2b6兩個模型的迭代,能明顯感受到增加數(shù)據(jù)量、提升數(shù)據(jù)質(zhì)量、增大模型參數(shù)量,對模型的提升非常大。

在前文中,我們提到,firefly-1b4在訓練數(shù)據(jù)量、訓練步數(shù)上都略有不足。為了探索"小"模型的效果上限,我們也將使用更多數(shù)量、更高質(zhì)量的數(shù)據(jù)對firefly-1b4進行迭代。該項工作正在進行。

后續(xù),我們也將在多輪對話、增大模型參數(shù)量、模型量化等方向上進行迭代,我們也將陸續(xù)開源訓練代碼以及更多的訓練數(shù)據(jù)。期待大家的意見和建議。


審核編輯 :李倩


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3755

    瀏覽量

    52121
  • 代碼
    +關注

    關注

    30

    文章

    4968

    瀏覽量

    73999
  • 語言模型
    +關注

    關注

    0

    文章

    571

    瀏覽量

    11322

原文標題:中文對話式大語言模型Firefly-2b6開源,使用210萬訓練數(shù)據(jù)

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    什么是大模型,智能體...?大模型100問,快速全面了解!

    一、概念篇1.什么是大模型?大模型是指參數(shù)規(guī)模巨大(通常達到數(shù)十億甚至萬億級別)、使用海量數(shù)據(jù)訓練而成的人工智能模型。
    的頭像 發(fā)表于 02-02 16:36 ?924次閱讀
    什么是大<b class='flag-5'>模型</b>,智能體...?大<b class='flag-5'>模型</b>100問,快速全面了解!

    openDACS 2025 開源EDA與芯片賽項 賽題七:基于大模型的生成原理圖設計

    大賽分為初賽和決賽,均設獎項,總獎金40元。 (1)初賽:參賽隊伍按賽題報名,在規(guī)定的時間內(nèi)提交參賽開源代碼、可執(zhí)行代碼、測試數(shù)據(jù)和相關文檔材料,由賽題評審組評分。每個賽題評選出:優(yōu)勝獎1-
    發(fā)表于 11-13 11:49

    NVIDIA ACE現(xiàn)已支持開源Qwen3-8B語言模型

    為助力打造實時、動態(tài)的 NPC 游戲角色,NVIDIA ACE 現(xiàn)已支持開源 Qwen3-8B語言模型(SLM),可實現(xiàn) PC 游戲中的本地部署。
    的頭像 發(fā)表于 10-29 16:59 ?1237次閱讀

    在Ubuntu20.04系統(tǒng)中訓練神經(jīng)網(wǎng)絡模型的一些經(jīng)驗

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓練神經(jīng)網(wǎng)絡模型的一些經(jīng)驗。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2訓練框架,目標是
    發(fā)表于 10-22 07:03

    NVIDIA開源Audio2Face模型及SDK

    NVIDIA 現(xiàn)已開源 Audio2Face 模型與 SDK,讓所有游戲和 3D 應用開發(fā)者都可以構(gòu)建并部署帶有先進動畫的高精度角色。NVIDIA 開源 Audio
    的頭像 發(fā)表于 10-21 11:11 ?829次閱讀
    NVIDIA<b class='flag-5'>開源</b>Audio<b class='flag-5'>2</b>Face<b class='flag-5'>模型</b>及SDK

    米爾RK3576部署端側(cè)多模態(tài)多輪對話,6TOPS算力驅(qū)動30億參數(shù)LLM

    qwen2_5_vl_3b_vision_rk3576.rknn 模型(本文)。 核心作用:將輸入圖像壓縮為視覺 token 如 256 個視覺 token,直接輸入至大語言模型中,
    發(fā)表于 09-05 17:25

    OpenAI發(fā)布2開源模型

    OpenAI開源了兩款高性能權(quán)重語言模型gpt-oss-120b和gpt-oss-20b,OpenAI CEO Sam Altman表示:「
    的頭像 發(fā)表于 08-06 14:25 ?1032次閱讀

    ai_cube訓練模型最后部署失敗是什么原因?

    ai_cube訓練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報什么錯?
    發(fā)表于 07-30 08:15

    【VisionFive 2單板計算機試用體驗】3、開源語言模型部署

    的系統(tǒng)和芯片架構(gòu)。 3、拉取/運行大語言模型 ollama的使用方法和docker很像。 返回到ollama的編譯路徑,找到ollama可執(zhí)行文件 執(zhí)行 ./ollama run qwen3:0.6b
    發(fā)表于 07-19 15:45

    華為正式開源盤古7B稠密和72B混合專家模型

    [中國,深圳,2025年6月30日] 今日,華為正式宣布開源盤古70億參數(shù)的稠密模型、盤古Pro MoE 720億參數(shù)的混合專家模型和基于昇騰的模型
    的頭像 發(fā)表于 06-30 11:19 ?1342次閱讀

    在阿里云PAI上快速部署NVIDIA Cosmos Reason-1模型

    NVIDIA 近期發(fā)布了 Cosmos Reason-1 的 7B 和 56B 兩款多模態(tài)大語言模型 (MLLM),它們經(jīng)過了“物理 AI 監(jiān)督微調(diào)”和“物理 AI 強化學習”兩個階段
    的頭像 發(fā)表于 06-04 13:43 ?979次閱讀

    海思SD3403邊緣計算AI數(shù)據(jù)訓練概述

    模型,將模型轉(zhuǎn)化為嵌入AI模型模型升級AI攝像機,進行AI識別應用。 AI訓練
    發(fā)表于 04-28 11:11

    用PaddleNLP為GPT-2模型制作FineWeb二進制預訓練數(shù)據(jù)

    ,使用PaddleNLP將FineWeb數(shù)據(jù)中文本形式的數(shù)據(jù),經(jīng)過分詞化(Tokenize),轉(zhuǎn)換為大語言模型能直接使用的二進制
    的頭像 發(fā)表于 03-21 18:24 ?4328次閱讀
    用PaddleNLP為GPT-<b class='flag-5'>2</b><b class='flag-5'>模型</b>制作FineWeb二進制預<b class='flag-5'>訓練</b><b class='flag-5'>數(shù)據(jù)</b>集

    數(shù)據(jù)標注服務—奠定大模型訓練數(shù)據(jù)基石

    數(shù)據(jù)標注是大模型訓練過程中不可或缺的基礎環(huán)節(jié),其質(zhì)量直接影響著模型的性能表現(xiàn)。在大模型訓練中,
    的頭像 發(fā)表于 03-21 10:30 ?3331次閱讀

    標貝數(shù)據(jù)標注服務:奠定大模型訓練數(shù)據(jù)基石

    數(shù)據(jù)標注是大模型訓練過程中不可或缺的基礎環(huán)節(jié),其質(zhì)量直接影響著模型的性能表現(xiàn)。在大模型訓練中,
    的頭像 發(fā)表于 03-21 10:27 ?1118次閱讀
    標貝<b class='flag-5'>數(shù)據(jù)</b>標注服務:奠定大<b class='flag-5'>模型</b><b class='flag-5'>訓練</b>的<b class='flag-5'>數(shù)據(jù)</b>基石