91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

DeepMind推出的AI寫作模型Dramatron

傳感器技術(shù) ? 來源:新智元 ? 作者:新智元 ? 2022-12-12 11:04 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

【導(dǎo)讀】當(dāng)夠了畫家、剪輯和在線客服,人工智能的接下來要征服的,是編劇。DeepMind推出的AI寫作模型Dramatron,只需一句故事梗概,就能創(chuàng)作萬字劇本!

你有靈光乍現(xiàn)的時刻嗎?就是那種:這點(diǎn)子太好了,要是拍成電影一定能大火?

之前這種想法可能只能停留在你的腦海中,而現(xiàn)在,一個「AI編劇大師」的出現(xiàn),或許能讓你夢想成真。

從小白到編劇大師:只要一個點(diǎn)子

DeepMind近日發(fā)布了AI寫作模型Dramatron,可以生成人物描述,情節(jié)點(diǎn),位置描述和對話。

這個想法是,人類作家將能夠?qū)ramatron提出的內(nèi)容編譯,編輯和重寫為適當(dāng)?shù)哪_本。把它想象成 ChatGPT,但輸出可以編輯成大片電影腳本。

來自Deepmind和斯坦福大學(xué)的研究人員團(tuán)隊(duì)可以使用它來為戲劇和電影創(chuàng)建連貫的劇本和劇本 - 從標(biāo)題到角色,故事情節(jié),位置描述和對話。

使用Dramatron創(chuàng)作劇本,人們只需要在模型中輸入Log Line(故事的一句話摘要。之后,Dramatron就會自動生成劇本標(biāo)題、人物以及場景設(shè)定、細(xì)節(jié)和對話。

消息一出,便引來社交網(wǎng)絡(luò)的狂歡。

4cb97234-79a9-11ed-8abf-dac502259ad0.jpg

連馬斯克也來強(qiáng)勢圍觀。

4ccfe852-79a9-11ed-8abf-dac502259ad0.jpg

有人評論:「這是不是意味著我們再也不用只能看翻拍電影了?」

4ce71a9a-79a9-11ed-8abf-dac502259ad0.jpg

當(dāng)然,也有反對的聲音。LeCun就暗諷Dramatron之類的生成式語言模型只是將「胡編亂造」從bug變成了自家特色。

4cfd2876-79a9-11ed-8abf-dac502259ad0.jpg

而網(wǎng)友則回復(fù)道,你這是純純的嫉妒。

4d1279e2-79a9-11ed-8abf-dac502259ad0.jpg

「『胡編亂造』確實(shí)是它們的特色。這也是Galactica(Meta語言模型,上線三天就被罵到下架)想要做到的事情。我看你就是嫉妒MetaAI沒做到這一點(diǎn)?!?/p>

總結(jié)下來兩個字:別酸!

看看AI寫的劫匪片

根據(jù)DeepMind官網(wǎng)的提示,用戶只需注冊O(shè)penAI的賬號即可使用。

聽上去不難。這不,推特上已經(jīng)有人拿它嘗試寫劫匪片了。

網(wǎng)友Vlad Yashin給出的Log Line是:「在復(fù)雜的珠寶搶劫案失手之后,幸存的罪犯開始懷疑團(tuán)伙內(nèi)部有警方線人?!?/p>

4d3f7ad2-79a9-11ed-8abf-dac502259ad0.jpg

接著,該Dramatron上場表演了。

首先,它給出了標(biāo)題:《大劫案的崩墜》(The Heist's Downfall)

4d4ff538-79a9-11ed-8abf-dac502259ad0.jpg

很有文采的標(biāo)題,得到了網(wǎng)友的認(rèn)可。

接著,Dramatron確定了故事主角:約翰·默多克(John Murdock),珠寶盜賊的頭目,一個聰明而經(jīng)驗(yàn)豐富的罪犯。

4d61eef0-79a9-11ed-8abf-dac502259ad0.jpg

下一步是場景設(shè)置,對這個故事,Dramatron給出了四個場景:

? 約翰和團(tuán)隊(duì)計劃搶劫。

? 搶劫出錯,約翰劫持人質(zhì),他們自己設(shè)置路障。

? 發(fā)生槍戰(zhàn),只有約翰和另外兩名罪犯幸存下來。

? 回到安全屋,約翰決定殺死幸存的盜賊伙伴。

4d717a96-79a9-11ed-8abf-dac502259ad0.png

接下來,Dramatron對場景細(xì)節(jié)進(jìn)行打磨:

? 珠寶店 - 狹小,狹窄的空間??諝庵袕浡嘿F香水的味道,貨架上的商品閃閃發(fā)光。

? 安全屋 - 小型公寓,位于城鎮(zhèn)陰涼的地方,窗戶覆蓋著床單。

4d7e525c-79a9-11ed-8abf-dac502259ad0.png

最后一步,也是重頭戲,Dramatron生成了人物間的對話。

4d8e9a54-79a9-11ed-8abf-dac502259ad0.png

第一場:

John:計劃是這樣,我們從后門進(jìn)入,解除警報,然后把珠寶裝到車上。

保安:嘿!你們不能去那里!

John:老實(shí)點(diǎn)!我們有槍!

保安:別開槍!我沒有武器。

4d9a09ca-79a9-11ed-8abf-dac502259ad0.png

第二場:

John:該死!到底發(fā)生了什么?

Bert:我也不知道,一定是警報器響了。

John:可惡!大家保持冷靜,我們想辦法解決。

Bill:怎么辦?警察要來了!

John:我們用人質(zhì)作為路障。所有人聽我指揮。

看看這情節(jié),有模有樣的,緊張氛圍也是直接拉滿,不知道真拍出來會不會大賣。

AI劇本電影節(jié)上映,人類專家贊不絕口

實(shí)際上,關(guān)于DeepMind搞的這個AI劇作家Dramatron,相關(guān)論文預(yù)印本早在今年9月就已經(jīng)發(fā)布,DeepMind還在自家博客上宣傳了一波。

4da7a8fa-79a9-11ed-8abf-dac502259ad0.png

論文地址:

https://arxiv.org/pdf/2209.14958.pdf

論文四位作者中,有一位發(fā)文單位是斯坦福大學(xué),但這項(xiàng)研究是他在DeepMind期間參與的。

Dramatron是一個使用大型語言模型的系統(tǒng),通過「分層故事生成」的方法生成腳本和劇本。

Dramatron利用大型語言模型的優(yōu)勢,將精心設(shè)計的提示和提示鏈與結(jié)構(gòu)化生成相結(jié)合,以實(shí)現(xiàn)整個劇本的長距離連貫性。與之前的連續(xù)文本生成相比,Dramatron的劇本創(chuàng)作過程能讓故事更加連貫。

Dramatron的生成可以從一個用戶提供的戲劇主要沖突的摘要(稱為「日志線」)中產(chǎn)生整個劇本,劇本長度可以高達(dá)幾萬字。

根據(jù)輸入的日志線,Dramatron可以生成整個劇本,包括標(biāo)題、人物名單、故事情節(jié)(即帶有設(shè)置和節(jié)拍的場景摘要列表)、地點(diǎn)描述和對話。

用戶可以在分層生成的任何階段進(jìn)行干預(yù)和修改,輸入替代性生成,編輯和重寫輸出文本,或繼續(xù)文本生成。

4dbbf224-79a9-11ed-8abf-dac502259ad0.png

Dramatron的分層連貫的故事生成,從日志線開始,生成標(biāo)題和人物。

這樣,生成的人物角色被用作提示,在情節(jié)中生成一連串的場景摘要。隨后為每個獨(dú)特的地點(diǎn)生成描述。最后,這些元素都被結(jié)合起來,為每個場景生成對話。圖中的箭頭表示生成的文本如何被用來構(gòu)建提示,以便進(jìn)一步生成LLM文本。

我們的方法可以用于任何接受輸入提示的LLM,然后預(yù)測接下來會出現(xiàn)哪些標(biāo)記。

在2022年8月在埃德蒙頓舉辦的國際前沿戲劇節(jié)上,上映了Dramatron按照這個流程編寫的一系列劇本。

為了評估Dramatron的可用性和能力,研究人員沒有依靠網(wǎng)上的眾包注釋和非專家評審員的評價,而是讓15位專家參加了長達(dá)兩小時的用戶會議,與Dramatron一起共同寫劇本。

4dcede20-79a9-11ed-8abf-dac502259ad0.png

來自戲劇和電影界的專家劇作家和編劇對Dramatron互動式的共同創(chuàng)作過程提供了反饋,并對與創(chuàng)作成果提供了藝術(shù)意見和分析。

4de78a24-79a9-11ed-8abf-dac502259ad0.png

從DeepMind提供的專家修改意見反饋來看,有不少都是對場景和對話用詞細(xì)節(jié)的修正意見,主要是打磨場景和對話的敘事節(jié)奏,還有一些修改是處于規(guī)避侵權(quán)的需要。

4e049830-79a9-11ed-8abf-dac502259ad0.png

上圖為語言模型的提示設(shè)置說明,用戶或Dramatron生成的提示被連接到一個前綴,配以標(biāo)簽。對于不同的隨機(jī)種子,會產(chǎn)生幾個標(biāo)題輸出。

專家和專業(yè)編輯的總體反饋評價結(jié)果如何?可以看到,大部分專家評審還是給出了積極評價的。

4e263242-79a9-11ed-8abf-dac502259ad0.png

比如,對Dramatron的交互式分層生成臺詞的夸獎,其中不乏「有用」、「 獨(dú)一無二」、「驚喜」等字眼。

另外,對于AI寫的劇本的水準(zhǔn),不少專家給出了高度評價,他們認(rèn)為劇本只要改一改,真的可以拍攝上映。

另外,專家Dramatron除了寫劇本之外的更多用途表示期待,比如可以作為一個對影視劇作家的啟發(fā)式工具,作者也可以從Dramatron生成的臺詞和場景構(gòu)思中吸取思路。

在他們看來,AI提供素材,真人作者寫劇本,這個模式在未來大有可為。

盡管目前在人類專家看來,AI寫的劇本還是存在一些不自然的缺陷和問題。比如劇情過于直白,讓人很容易猜出,臺詞風(fēng)格有些刻板,有些臺詞充斥偏見,有時劇情會進(jìn)入邏輯循環(huán)跳不出來等等。

不過,有大語言模型這個寶庫,有全世界的劇作家和影視工作者的智慧做訓(xùn)練數(shù)據(jù)集,說不定以后的影視劇編劇究竟是人還是AI,大屏幕前我們很有可能分不出來了。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39981

    瀏覽量

    301615
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1236

    瀏覽量

    26212
  • DeepMind
    +關(guān)注

    關(guān)注

    0

    文章

    131

    瀏覽量

    12315

原文標(biāo)題:馬斯克點(diǎn)贊!DeepMind神AI編劇,一句話生成幾萬字劇本

文章出處:【微信號:WW_CGQJS,微信公眾號:傳感器技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    NVIDIA推出代理式AI藍(lán)圖與電信推理模型

    借助全新開源大型電信模型與 NVIDIA Blueprint,電信運(yùn)營商能夠利用自有數(shù)據(jù)訓(xùn)練 AI 智能體,構(gòu)建自主網(wǎng)絡(luò)。
    的頭像 發(fā)表于 03-06 17:37 ?2852次閱讀

    模型 ai coding 比較

    序 我主要用途是 ai coding,從各種渠道獲取到了很多 不同的大模型排序 最多的是 opus 4.6 > k2.5 > glm5 >
    發(fā)表于 02-19 13:43

    使用NORDIC AI的好處

    不依賴持續(xù)聯(lián)網(wǎng),整體系統(tǒng)可靠性更高。[Edge AI 概述; Nordic Edge AI 技術(shù)頁] 覆蓋從“小 MCU”到“高性能 SoC”的完整產(chǎn)品線 Neuton 模型 :超小模型
    發(fā)表于 01-31 23:16

    谷歌正式推出最新Gemini 3 AI模型

    今天我們正式推出 Gemini 3,這是我們迄今為止最智能的模型,能夠幫助用戶實(shí)現(xiàn)任何創(chuàng)意。Gemini 3 Pro 基于最先進(jìn)的推理技術(shù),與之前的版本相比,它在所有主要的 AI 基準(zhǔn)測試中都取得了無與倫比的結(jié)果,尤其是在編程方
    的頭像 發(fā)表于 11-24 11:10 ?1244次閱讀
    谷歌正式<b class='flag-5'>推出</b>最新Gemini 3 <b class='flag-5'>AI</b><b class='flag-5'>模型</b>

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個AI模型怎么搞,知識盲區(qū)
    發(fā)表于 10-14 07:14

    谷歌DeepMind重磅發(fā)布Genie 3,首次實(shí)現(xiàn)世界模型實(shí)時交互

    電子發(fā)燒友網(wǎng)綜合報道 當(dāng)?shù)貢r間2025年8月5日,谷歌DeepMind正式推出第三代通用世界模型Genie3。這款被英偉達(dá)科學(xué)家Jim Fan譽(yù)為“游戲引擎2.0”的模型,通過單文本提
    的頭像 發(fā)表于 08-13 08:27 ?6921次閱讀

    兆芯攜手聯(lián)想開天在WAIC 2025展示AI公文寫作神器

    2025世界人工智能大會正在火熱召開。本屆大會,兆芯攜手聯(lián)想開天展示了一套AI公文寫作神器,基于開天AIPC終端,搭載定制AI算力卡,推理、數(shù)據(jù)完全本地化,內(nèi)置基于海量權(quán)威語料訓(xùn)練的專業(yè)模型
    的頭像 發(fā)表于 08-04 10:01 ?1107次閱讀

    Cognizant加速AI模型企業(yè)級開發(fā)

    -Cognizant推出AI Training Data Services,助力企業(yè)級AI模型加速開發(fā) Cognizant是數(shù)據(jù)與AI
    的頭像 發(fā)表于 07-31 17:25 ?725次閱讀

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報什么錯?
    發(fā)表于 07-30 08:15

    谷歌新一代生成式AI媒體模型登陸Vertex AI平臺

    我們在 Vertex AI推出新一代生成式 AI 媒體模型: Imagen 4、Veo 3 和 Lyria 2。
    的頭像 發(fā)表于 06-18 09:56 ?1124次閱讀

    如何賦能醫(yī)療AI模型應(yīng)用?

    引言自ChatGPT掀起熱潮以來,眾多AI模型如雨后春筍般涌現(xiàn),其中包括百度科技的文心一言、科大訊飛的訊飛星火、華為的盤古AI模型、騰訊的混元A
    的頭像 發(fā)表于 05-07 09:36 ?705次閱讀
    如何賦能醫(yī)療<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>應(yīng)用?

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    AI的演進(jìn)正在逼近“終端智能涌現(xiàn)”的拐點(diǎn),從通用模型向場景落地遷移成為關(guān)鍵議題。聯(lián)發(fā)科以“AI隨芯,應(yīng)用無界”為主題召開天璣開發(fā)者大會2025(MDDC 2025),不僅聚合了全球生態(tài)資源,還
    發(fā)表于 04-13 19:52

    英偉達(dá)GTC2025亮點(diǎn) NVIDIA推出Cosmos世界基礎(chǔ)模型和物理AI數(shù)據(jù)工具的重大更新

    、Figure AI、Skild AI 是最早采用該技術(shù)的公司。 NVIDIA 宣布推出全新 NVIDIA Cosmos 世界基礎(chǔ)模型 (WFM) 的重大更新,該
    的頭像 發(fā)表于 03-20 19:01 ?1356次閱讀

    AI眼鏡大模型激戰(zhàn):多大模型協(xié)同、交互時延低至1.3S

    電子發(fā)燒友網(wǎng)報道(文/莫婷婷)“百鏡大戰(zhàn)”開始時,也是AI模型在智能眼鏡端加速落地的開始,一場關(guān)于智能眼鏡的“百模大戰(zhàn)”也同步進(jìn)行。幾乎今年剛推出AI智能眼鏡都搭載了
    的頭像 發(fā)表于 03-20 08:59 ?2753次閱讀
    <b class='flag-5'>AI</b>眼鏡大<b class='flag-5'>模型</b>激戰(zhàn):多大<b class='flag-5'>模型</b>協(xié)同、交互時延低至1.3S