海量實測!全網(wǎng)期待的Midjourney角色一致性功能測評:質(zhì)感超棒!可用于快速制作動漫繪本
在Midjourney一鴿再鴿,鴿了N次之后,3月12日一早,他們終于決定把萬眾期待的功能放出來了。
角色一致性——同步支持Midjourney V6和Niji V6大模型。
跟之前的風(fēng)格一致性「--sref」命名保持一致:--cref。
坦率的講,風(fēng)格一致性、角色一致性、場景一致性,是我覺得三個能真正進(jìn)入生產(chǎn)管線的極度重要的可控性功能。其實現(xiàn)難度由低到高。
畢竟,你真要用MJ去帶故事帶場景的東西,這些一致性肯定是要的,要不然瘋狂跳戲,那觀感肯定奇差無比,這個妹子一會白頭發(fā)一會紅頭發(fā),一會圓臉一會方臉,你都懷疑你在看個什么異世界故事。
之前有朋友也在群里瘋狂吐槽過:
風(fēng)格一致性Midjourney有「--sref」命令去做很好的解決了,而角色一致性,今早也終于放出來了,講道理,他可以節(jié)省一半的工期了hhhhh。
--cref背后參數(shù)--cw的值可以從0設(shè)到100. --cw 100是默認(rèn)參數(shù),此時會參考原圖的臉部、頭發(fā)和衣服,但是相應(yīng)的,會非常的不吃Prompt。-- cw 0的時候,就只會參考臉部,大概就約等于一個換臉。
最近《沙丘2》挺火,上個小公主給大家當(dāng)一下case。
原圖是這樣的:
使用--cref之后。
還是能明顯看出區(qū)別的。--cw 100的時候,人物的頭飾、衣服都是大差不差的;--cw 0的時候,發(fā)型和衣服就全變了。
至于用法,我比較習(xí)慣使用MJ的網(wǎng)頁版,體驗真不是好的一點半點,體驗地址在此:
登進(jìn)去之后,傳一張圖片,就會發(fā)現(xiàn)圖片的右下角有一個小icon,鼠標(biāo)hover上去以后就能看到出現(xiàn)了3個icon,最左邊那個小人的icon就是把這張圖片當(dāng)做角色參考,中間那個鏈接icon就是作為風(fēng)格參考,最右邊那個就是僅作為圖片prompt,就是傳統(tǒng)意義上的圖生圖。
當(dāng)然,你也可以按住shift,點這三個按鈕,就能把這三個全部點亮,形成cref + sref + 圖片prompt的超級組合拳。。。
官方對于角色一致性,也給了一些簡單的小Tips。
真人和照片肯定是最難的,畢竟需要關(guān)注的細(xì)節(jié)太多,而且"神韻"是一個非常玄學(xué)的東西,有時候你就會覺得明明五官是一樣的,但是為啥就是不像。。
而用在2D和3D角色上,那肯定就會好很多了,畢竟只需要抓住幾個主要特征就行,所以從這個功能本身上看,也能猜到,Niji V6的表現(xiàn),肯定會比Midjourney V6要好很多。
所以我會分成真人、2D&3D人物、動物,這三個維度,來做一些case,講一些我摸索到的小技巧,讓大家來直觀的感受一下,他的用法和未來的可能性。
其實說實話,我跑了N多case,用真人照片直接去做參考的話,效果確實不咋地,只能保證相對一致性,但是絕對的完全一模一樣,是不可能的。
官方自己也非常明白:
It's not designed for real people / photos
我放幾個真人照片做參考的case,你們看一下相似度,就肯定明白了。
屬于是個人看了都想刀人的程度。
但是如果直接用Midjourney生成的圖去做參考,一致性會好一些,但是也就僅僅好一些了。
當(dāng)然,也有很好玩的用法,2D轉(zhuǎn)真人。比如我扔進(jìn)去了一個我用Niji跑的二次元女生,然后轉(zhuǎn)頭用Midjourney V6去跑"穿著皮衣,在舞臺中彈著吉他"的場景,效果意外的還不錯。
在真人這塊,整體上,我覺得作用是有比沒有好,能降低過去很多Roll圖的時間,但是達(dá)不到所謂的完美或者攝影級的水準(zhǔn),但是這畢竟只是第一步,真人的一致性肯定是最難的,等待Midjourney的后續(xù)優(yōu)化。
當(dāng)不跑真人,而是去跑2D和3D角色的時候,這就讓我驚喜多了。
Niji 6 + cref + sref的組合拳,是我認(rèn)為目前的最優(yōu)解。
prompt寫法也很簡單,角色描述+角色動作+cref。
比如我隨手跑了一個人造人18但是換了衣服,再把提示詞刪了直接去用圖片提示,可以看到角色一致性得到完美的保持,不管是面部、發(fā)型、顏色、衣服,甚至還有身材,都能完美還原...
如果換成--cw 0,再寫一個運動服。可以看到衣服全變了,但是面部和頭發(fā)都不變,用吉川的話說:頭發(fā)才是二次元的本體。
再比如,用我之前的橙頭發(fā)妹子,直接跑一個穿皮衣彈吉他的圖,
當(dāng)然,除了彈吉他之外,她還可以做很多事情。
而做3D角色也是同理,比如經(jīng)典的泡泡瑪特風(fēng)格的IP。
動物的一致性,比我想象的要好很多,因為我一直以為MJ的角色性,真就只有人物的,但是隨手試了一下動物,居然意外的還不錯。
比如用坤哥的《山海奇鏡》里面的狼當(dāng)圖片提示,讓它來抓兔子。
原圖是這樣的。
讓它去抓兔子以后,就意外的,非常好。
比如用朋友的狗當(dāng)prompt,也還原的差不多。
還有怪物,也很Nice。
AI繪圖達(dá)到了這種精度,至少去做個繪本,肯定是沒問題了~
寫在最后
在角色一致性上,Midjourney終于踏出了堅實的一步。
首當(dāng)其沖影響的領(lǐng)域,肯定是所有非真人領(lǐng)域,比如游戲、漫畫、動漫、繪本等等。
Midjourney的角色一致性精度,是一個很棒的殺器。
可能他還達(dá)不到絕對一致性得標(biāo)準(zhǔn),但是對于70~80%的工作,我覺得是有巨幅的效率提升的。
同時它也不需要像Stable Diffusion一樣,去高門檻、高成本的訓(xùn)練自己的LoRA,只需要一張圖,就完事了。
高可用性、極佳的用戶體驗、不錯的效果。
我覺得足夠它在商業(yè)領(lǐng)域和專業(yè)工作流中。
有他的,一席之地。
近期文章
更多