AIGC竟然能實現(xiàn)電影特效內容創(chuàng)作!分享網(wǎng)友借助AI工作流制作《流浪地球3》預告片
創(chuàng)作者:@數(shù)字生命卡茲克
AI繪畫工具:Midjourney+Runway組成工作流
工具介紹:
Midjourney一個領先的AI繪畫圖像生成器工具。通過創(chuàng)造新的人機交互方式,讓人們能夠更自由、更深入、更有趣地表達自己的想法和創(chuàng)意。利用了最先進的深度學習技術,讓用戶可以通過簡單的文字提示,生成各種類型和風格的圖像,從而實現(xiàn)視覺想象的無限可能;
Runway是一個基于人工智能的內容創(chuàng)作工具,使用它可以生成各種類型的藝術作品,包括圖像、音樂、文本和視頻等。它使用最先進的深度學習技術和算法,使得用戶可以通過簡單的交互式界面定制和控制模型,生成獨特的創(chuàng)意作品。為了生成視頻,你需要在Runway中選擇相應的模型。一些模型可以生成靜態(tài)圖像,但有些模型可以生成動態(tài)的視頻。
工具鏈接:
Midjourney http://ntrq.com.cn/sites/404.html
Runway http://ntrq.com.cn/sites/251.html
很久以前,就想做一段自己的AI視頻。直到前段時間的《芭比×海默》,給了我很大的啟發(fā)。Midjourney+Runway Gen2的工作流程,終于可以實現(xiàn)我的想法了。于是,我花了5個晚上,用Midjourney生成了693張圖,用Gen2生成了185個鏡頭,最后選出來了60個鏡頭,剪輯成了我最喜歡的。
《流浪地球3》的預告片,點擊下方視頻直接播放——
工作流程其實很簡單:Midjourney生圖,Runway Gen2生成4秒的視頻。以下是我用Midjourney生成的部分視覺分鏡圖。
這些圖片,為了分鏡風格一致,所以我固定好了后綴提示詞。這塊部分詞組有借鑒國外大神制作的《起源》。
____ , not central composition, Science fiction movie: The Wandering Earth, in the style of detailed crowd scenes, hard sci-fi style, futuristic incredible scene, very imaginative, indoor scenes, movie scene, dynamic shot, low saturation, light white and teal,extreme detail, 8K --ar 21:9 --v 5.2
在前綴空白處描寫場景或人物或鏡頭,后綴一致,這樣可以保證畫面風格的統(tǒng)一。然后扔到Runway Gen2里生成視頻反而是最簡單的一步。
直接把圖片上傳,生成。不要寫任何提示詞,只要寫任何一句話,基本都會面目全非。說實話Runway Gen2現(xiàn)在的穩(wěn)定性還是一般,roll了180多個鏡頭,4秒全能用的一共只有2個。其他的基本都只能用前1~2秒。
但是對于剪輯至少是夠了。而且我也遇到了跟《創(chuàng)世紀》作者同樣的問題。用Runway Gen2生成人臉視頻的時候,一定不要開增強Upscale,要不然面部會變動巨大。生成場景的時候,開增強Upscale效果會更好。
剩下的也沒啥技術含量了,roll就行了,最后挑選鏡頭,按心中的故事或主題剪輯。話說本來我是自己手繪了50個左右的分鏡線稿,還寫好了故事線,埋了彩蛋,結果發(fā)現(xiàn)AI根本不會按我的預期效果去弄。
最后管他呢,量大管飽,生成幾百個鏡頭,總能拼的。這次《流浪地球3》預告片的工作流,對我來說是個很有意思的實驗。以前自己做視頻,Blender建模渲染,1個多月的時間,現(xiàn)在下班后的5個晚上就搞定。
AI,真的是效率革命。希望本文對你的工作方式有所啟發(fā)!以上,感謝大家的閱讀~希望對大家有所幫助。