近日,字節(jié)跳動(dòng)推出的AI視頻生成模型Seedance2.0在海內(nèi)外互聯(lián)網(wǎng)上再度刷屏。據(jù)官方介紹,該模型能夠根據(jù)文本或圖像生成電影級(jí)視頻,并采用雙分支擴(kuò)散變換器架構(gòu),同步生成視頻與音頻。用戶只需輸入詳細(xì)提示詞或上傳一張圖片,Seedance2.0便可在60秒內(nèi)生成帶有原生音頻的多鏡頭序列視頻。
(資料圖)
官方稱其“非常適合生成從開端到高潮的完整敘事序列,并保證專業(yè)級(jí)的連貫性”。該模型一經(jīng)發(fā)布,便吸引大量用戶主動(dòng)嘗試。
知名科普博主“影視颶風(fēng)”的評(píng)測(cè)視頻進(jìn)一步加速了Seedance2.0的“出圈”。測(cè)評(píng)指出,該模型在視頻的大幅度運(yùn)動(dòng)、分鏡設(shè)計(jì)、音畫匹配等方面表現(xiàn)突出,例如分鏡上呈現(xiàn)“明顯的角度切換”,能夠“如真人導(dǎo)演般不斷調(diào)整機(jī)位”。此外,多家券商也在研報(bào)中給予Seedance2.0積極評(píng)價(jià)。
《黑神話:悟空》制作人馮驥在體驗(yàn)后專門發(fā)布微博,稱其為“當(dāng)前地表最強(qiáng)的視頻生成模型”,并欣慰于這樣的技術(shù)誕生在中國。但他也同時(shí)指出其中潛藏的假視頻泛濫與信任危機(jī)問題,因?yàn)椤氨普嬉曨l的生成將變得毫無門檻”。
不過,Seedance2.0并非完美。有用戶反映,使用相同提示詞與素材時(shí),生成視頻的精細(xì)化控制仍顯不足。
從各方體驗(yàn)、官方示例及實(shí)際測(cè)試來看,Seedance2.0最突出的優(yōu)勢(shì)在于運(yùn)鏡剪輯能力以及人物與場(chǎng)景的一致性,但在情感表達(dá)的細(xì)膩度、中文文本呈現(xiàn)等方面仍有提升空間。當(dāng)然,AI生成視頻已非新鮮事物。就在上個(gè)月,快手旗下AI視頻生成模型可靈(Kling)也曾火爆海外,其“Motion Control”功能生成的視頻具備極高的傳播潛力,一度推動(dòng)其App在韓國、新加坡等地的圖形設(shè)計(jì)類應(yīng)用下載榜登頂。
公開資料顯示,針對(duì)其他AI視頻模型,Seedance2.0生成2K視頻的速度比Kling等競(jìng)爭(zhēng)對(duì)手快30%:Sora側(cè)重于物理真實(shí)感,Kling專注于運(yùn)動(dòng)控制,而Seedance2.0則聚焦于生成帶有原生音頻的連貫多場(chǎng)景序列。
Seedance2.0的出現(xiàn),標(biāo)志著AI視頻生成從“單鏡頭短片”邁向了“連貫多場(chǎng)景敘事”的新階段。它的核心意義在于,通過實(shí)現(xiàn)角色、風(fēng)格一致的多鏡頭自動(dòng)生成與原生音頻同步,顯著降低了專業(yè)級(jí)視頻敘事的門檻,將競(jìng)爭(zhēng)焦點(diǎn)從單純的“物理真實(shí)感”或“運(yùn)動(dòng)控制”,提升至對(duì)復(fù)雜故事結(jié)構(gòu)與影視語言的掌握。這預(yù)示著,AI視頻導(dǎo)演時(shí)代的加速來臨,對(duì)于影視行業(yè)將會(huì)是挑戰(zhàn)。
策劃/劉丹 覃淋
文案/周雅萌
主播/汪林靜
視頻/董婧珣
編輯 陳美伊
二審 李劼
三審 周文君
標(biāo)簽: 消費(fèi)導(dǎo)報(bào)網(wǎng) 24小時(shí)資訊





