91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Stability AI開(kāi)源圖像生成模型Stable Diffusion

倩倩 ? 來(lái)源:AI前線 ? 作者:Anthony Alford ? 2022-09-21 15:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Stability AI 對(duì)外發(fā)布了 Stable Diffusion 的預(yù)訓(xùn)練模型權(quán)重,這是一個(gè)文本至圖像的 AI 模型。根據(jù)文本提示,Stable Diffusion 能夠生成逼真的 512x512 像素的圖像以描述提示中的場(chǎng)景。

在模型權(quán)重公開(kāi)發(fā)布之前,它的代碼已經(jīng)發(fā)布,模型權(quán)重也有限發(fā)布給了研究社區(qū)。在最新的版本中,任何用戶都可以在消費(fèi)者級(jí)別的硬件中下載并運(yùn)行 Stable Diffusion。除了文本至圖像的生成,該模型還支持圖像至圖像的風(fēng)格轉(zhuǎn)換以及圖像質(zhì)量提升。在發(fā)布該版本的同時(shí),Stable AI 還發(fā)布了 beta 版本的 API 以及模型的 Web UI,名為 DreamStudio。Stable AI 這樣說(shuō)到:

Stable Diffusion 是一個(gè)文本至圖像的模型,它能讓數(shù)十億人在幾秒鐘內(nèi)創(chuàng)建出令人贊嘆的藝術(shù)品。在速度和質(zhì)量方面,它都有所突破,這意味著它能在消費(fèi)者級(jí)別的 GPU 上運(yùn)行……這能夠讓研究人員和……公眾在各種條件下運(yùn)行,使圖像生成技術(shù)走向大眾。我們期待圍繞該模型和其他模型出現(xiàn)一個(gè)開(kāi)放的生態(tài)系統(tǒng),以探索潛在空間的邊界。

Stable Diffusion 基于名為潛在擴(kuò)散模型(latent diffusion models,LDMs)的圖像生成技術(shù)。與其他的流行的圖像合成方法不同,如生成對(duì)抗網(wǎng)絡(luò)(generative adversarial networks,GANs)和 DALL-E 使用的自動(dòng)回歸技術(shù),LDMs 通過(guò)在一個(gè)潛在表示空間中迭代“去噪”數(shù)據(jù)來(lái)生成圖像,然后將表示結(jié)果解碼為完整的圖像。LDM 是由 Ludwig Maximilian University of Munich 的機(jī)器視覺(jué)與學(xué)習(xí)(Machine Vision and Learning)研究組開(kāi)發(fā)的,并在最近的 IEEE / CVF 計(jì)算機(jī)視覺(jué)和模式識(shí)別會(huì)議(Computer Vision and Pattern Recognition Conference)上發(fā)表的一篇論文中進(jìn)行了闡述。在今年早些時(shí)候,InfoQ 曾經(jīng)報(bào)道過(guò)谷歌的 Imagen 模型,它是另一個(gè)基于擴(kuò)散的圖像生成 AI。

Stable Diffusion 模型支持多種操作。與 DALL-E 類(lèi)似,它能夠根據(jù)所需圖像的文本描述,生成符合匹配該描述的高質(zhì)量圖像。它還可以根據(jù)一個(gè)簡(jiǎn)單的草圖再加上所需圖像的文本描述,生成一個(gè)看起來(lái)更逼真的圖像。Meta AI 最近發(fā)布了名為 Make-A-Scene 的模型,具有類(lèi)似的圖像至圖像的功能。

Stable Diffusion 的很多用戶已經(jīng)公開(kāi)發(fā)布了生成圖像的樣例,Stability AI 的首席開(kāi)發(fā)者 Katherine Crowson 在推特上分享了許多圖像?;?AI 的圖像合成可能會(huì)對(duì)藝術(shù)家和藝術(shù)領(lǐng)域帶來(lái)一定的影響,有些評(píng)論者對(duì)此感到不安。就在 Stable Diffusion 發(fā)布的同一周,一幅由 AI 生成的藝術(shù)品在科羅拉多州博覽會(huì)的藝術(shù)比賽中獲得了一等獎(jiǎng)。Django 框架的共同創(chuàng)建者 Simon Williamson 認(rèn)為:

我見(jiàn)過(guò)一種說(shuō)法,認(rèn)為 AI 藝術(shù)沒(méi)有資格獲得版權(quán)保護(hù),因?yàn)椤八仨殮w功于全人類(lèi)”——如果基于文本生成的設(shè)計(jì)尚不足以說(shuō)服公眾的話,那 [圖像至圖像] 技術(shù)可能會(huì)打破這種平衡。

Stable AI 的創(chuàng)始人 Emad Mostaque 在推特上回答了一些關(guān)于該模型的問(wèn)題。在回答一位試圖估算訓(xùn)練模型所需的計(jì)算資源和成本的用戶時(shí),Mostaque 說(shuō)到:

實(shí)際上,我們?yōu)檫@個(gè)模型使用了 256 個(gè) A100 顯卡,總共 15 萬(wàn)小時(shí),所以按市場(chǎng)價(jià)格計(jì)算為 60 萬(wàn)美元。

Mostaque 給出了 Reddit 上一篇文章的鏈接,其中給出了如何最好地使用該模型來(lái)生成圖像的技巧。

Stable Diffusion 的代碼可以在 GitHub 上找到。模型的權(quán)重以及 Colab notebook 和示例 Web UI 都可以在 HuggingFace 上找到。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39812

    瀏覽量

    301479
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3755

    瀏覽量

    52116
  • 圖像生成
    +關(guān)注

    關(guān)注

    0

    文章

    25

    瀏覽量

    7170

原文標(biāo)題:Stability AI 開(kāi)源圖像生成模型 Stable Diffusion

文章出處:【微信號(hào):AI前線,微信公眾號(hào):AI前線】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    模型 ai coding 比較

    序 我主要用途是 ai coding,從各種渠道獲取到了很多 不同的大模型排序 最多的是 opus 4.6 > k2.5 > glm5 >
    發(fā)表于 02-19 13:43

    使用NORDIC AI的好處

    提升能效,適合音頻、圖像和高采樣率傳感器等更重的 AI 負(fù)載。[Axon NPU 技術(shù)頁(yè)] 模型更小、更快、更省電 Neuton 模型相較 TensorFlow Lite:* 內(nèi)存
    發(fā)表于 01-31 23:16

    從炫技到量產(chǎn),具身智能要突破哪些瓶頸?

    LingBot-VLA 開(kāi)源,具身智能的 Stable Diffusion 來(lái)了?
    的頭像 發(fā)表于 01-28 17:12 ?8979次閱讀
    從炫技到量產(chǎn),具身智能要突破哪些瓶頸?

    使用Firebase AI Logic生成圖像模型的兩種新功能

    為您的應(yīng)用添加自定義圖像,能夠顯著改善和個(gè)性化用戶體驗(yàn),有效提高用戶參與度。本文將探討使用 Firebase AI Logic 生成圖像的兩種新功能: 其一是 Imagen 專(zhuān)屬編輯功
    的頭像 發(fā)表于 11-30 09:28 ?431次閱讀

    本地部署Stable Diffusion實(shí)現(xiàn)AI文字生成高質(zhì)量矢量圖片應(yīng)用于電子商務(wù)

    本地部署Stable Diffusion
    的頭像 發(fā)表于 11-28 07:19 ?748次閱讀

    openDACS 2025 開(kāi)源EDA與芯片賽項(xiàng) 賽題七:基于大模型生成式原理圖設(shè)計(jì)

    (Large Language Models, LLMs)正逐步成為EDA工具變革的核心驅(qū)動(dòng)力之一。近年來(lái),以GPT、DeepSeek、通義千問(wèn)等為代表的通用大模型在文本生成、語(yǔ)義理解、代碼生成、
    發(fā)表于 11-13 11:49

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個(gè)AI模型怎么搞,知識(shí)盲區(qū)
    發(fā)表于 10-14 07:14

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片的需求和挑戰(zhàn)

    AI的應(yīng)用多種多樣。比如:DALL-E2、Midjourney、Stable Diffusion等,不僅包括對(duì)話功能,還包括生成圖像、視頻、
    發(fā)表于 09-12 16:07

    【Sipeed MaixCAM Pro開(kāi)發(fā)板試用體驗(yàn)】基于MaixCAM-Pro的AI生成圖像鑒別系統(tǒng)

    1. 項(xiàng)目概述 本項(xiàng)目旨在開(kāi)發(fā)并部署一個(gè)高精度的深度學(xué)習(xí)模型,用于自動(dòng)鑒別一張圖片是由AI生成(如Stable Diffusion, DAL
    發(fā)表于 08-21 13:59

    谷歌新一代生成AI媒體模型登陸Vertex AI平臺(tái)

    我們?cè)?Vertex AI 上推出新一代生成AI 媒體模型: Imagen 4、Veo 3 和 Lyria 2。
    的頭像 發(fā)表于 06-18 09:56 ?1102次閱讀

    利用NVIDIA 3D引導(dǎo)生成AI Blueprint控制圖像生成

    AI 賦能的圖像生成技術(shù)突飛猛進(jìn),從早期模型會(huì)生成手指過(guò)多的人類(lèi)圖像,到現(xiàn)在能創(chuàng)造出令人驚嘆的逼
    的頭像 發(fā)表于 06-05 09:24 ?902次閱讀

    Gemini API集成Google圖像生成模型Imagen 3

    開(kāi)發(fā)者現(xiàn)在可以通過(guò) Gemini API 訪問(wèn) Google 最先進(jìn)的圖像生成模型 Imagen 3。該模型最初僅對(duì)付費(fèi)用戶開(kāi)放,不久后也將面向免費(fèi)用戶推出。
    的頭像 發(fā)表于 05-14 16:53 ?1271次閱讀

    首創(chuàng)開(kāi)源架構(gòu),天璣AI開(kāi)發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    模型庫(kù)的限制,聯(lián)發(fā)科還首發(fā)了開(kāi)源彈性架構(gòu)。區(qū)別于過(guò)往的開(kāi)放接口,只能部署特定架構(gòu)模型,開(kāi)放彈性架構(gòu)允許開(kāi)發(fā)者直接調(diào)整平臺(tái)源代碼,無(wú)需等待芯片廠商的支持,即可完成目標(biāo)或其他自研大模型輕松
    發(fā)表于 04-13 19:52

    ?Diffusion生成式動(dòng)作引擎技術(shù)解析

    Diffusion生成式動(dòng)作引擎 Diffusion生成式動(dòng)作引擎是一種基于擴(kuò)散模型Diffusion
    的頭像 發(fā)表于 03-17 15:14 ?3064次閱讀

    使用OpenVINO GenAI和LoRA適配器進(jìn)行圖像生成

    借助生成AI 模型(如 Stable Diffusion 和 FLUX.1),用戶可以將平平無(wú)奇的文本提示詞轉(zhuǎn)換為令人驚艷的視覺(jué)效果。
    的頭像 發(fā)表于 03-12 13:49 ?1898次閱讀
    使用OpenVINO GenAI和LoRA適配器進(jìn)行<b class='flag-5'>圖像</b><b class='flag-5'>生成</b>