亚洲精品一区二区国产精华液,亚洲欧美中文日韩v在线观看,亚洲综合人成网免费视频,亚洲精品色婷婷在线影院,一区二区三区在线 | 网站

首頁  >  測評  >  文章
2024-03-13 14:03

海量實測!全網(wǎng)期待的Midjourney角色一致性功能測評:質(zhì)感超棒!可用于快速制作動漫繪本

在Midjourney一鴿再鴿,鴿了N次之后,3月12日一早,他們終于決定把萬眾期待的功能放出來了。

角色一致性——同步支持Midjourney V6和Niji V6大模型。

圖片

跟之前的風(fēng)格一致性「--sref」命名保持一致:--cref。

坦率的講,風(fēng)格一致性、角色一致性、場景一致性,是我覺得三個能真正進(jìn)入生產(chǎn)管線的極度重要的可控性功能。其實現(xiàn)難度由低到高。

畢竟,你真要用MJ去帶故事帶場景的東西,這些一致性肯定是要的,要不然瘋狂跳戲,那觀感肯定奇差無比,這個妹子一會白頭發(fā)一會紅頭發(fā),一會圓臉一會方臉,你都懷疑你在看個什么異世界故事。

之前有朋友也在群里瘋狂吐槽過:

圖片

風(fēng)格一致性Midjourney有「--sref」命令去做很好的解決了,而角色一致性,今早也終于放出來了,講道理,他可以節(jié)省一半的工期了hhhhh。

--cref背后參數(shù)--cw的值可以從0設(shè)到100. --cw 100是默認(rèn)參數(shù),此時會參考原圖的臉部、頭發(fā)和衣服,但是相應(yīng)的,會非常的不吃Prompt。-- cw 0的時候,就只會參考臉部,大概就約等于一個換臉。

最近《沙丘2》挺火,上個小公主給大家當(dāng)一下case。

原圖是這樣的:

圖片

使用--cref之后。

圖片

還是能明顯看出區(qū)別的。--cw 100的時候,人物的頭飾、衣服都是大差不差的;--cw 0的時候,發(fā)型和衣服就全變了。

至于用法,我比較習(xí)慣使用MJ的網(wǎng)頁版,體驗真不是好的一點半點,體驗地址在此:

登進(jìn)去之后,傳一張圖片,就會發(fā)現(xiàn)圖片的右下角有一個小icon,鼠標(biāo)hover上去以后就能看到出現(xiàn)了3個icon,最左邊那個小人的icon就是把這張圖片當(dāng)做角色參考,中間那個鏈接icon就是作為風(fēng)格參考,最右邊那個就是僅作為圖片prompt,就是傳統(tǒng)意義上的圖生圖。

圖片

當(dāng)然,你也可以按住shift,點這三個按鈕,就能把這三個全部點亮,形成cref + sref + 圖片prompt的超級組合拳。。。

官方對于角色一致性,也給了一些簡單的小Tips。

圖片

真人和照片肯定是最難的,畢竟需要關(guān)注的細(xì)節(jié)太多,而且"神韻"是一個非常玄學(xué)的東西,有時候你就會覺得明明五官是一樣的,但是為啥就是不像。。

而用在2D和3D角色上,那肯定就會好很多了,畢竟只需要抓住幾個主要特征就行,所以從這個功能本身上看,也能猜到,Niji V6的表現(xiàn),肯定會比Midjourney V6要好很多。

所以我會分成真人、2D&3D人物、動物,這三個維度,來做一些case,講一些我摸索到的小技巧,讓大家來直觀的感受一下,他的用法和未來的可能性。

一、生成真人圖像

其實說實話,我跑了N多case,用真人照片直接去做參考的話,效果確實不咋地,只能保證相對一致性,但是絕對的完全一模一樣,是不可能的。

官方自己也非常明白:

It's not designed for real people / photos

我放幾個真人照片做參考的case,你們看一下相似度,就肯定明白了。

圖片

圖片

圖片

屬于是個人看了都想刀人的程度。

但是如果直接用Midjourney生成的圖去做參考,一致性會好一些,但是也就僅僅好一些了。

圖片

圖片

當(dāng)然,也有很好玩的用法,2D轉(zhuǎn)真人。比如我扔進(jìn)去了一個我用Niji跑的二次元女生,然后轉(zhuǎn)頭用Midjourney V6去跑"穿著皮衣,在舞臺中彈著吉他"的場景,效果意外的還不錯。

圖片

在真人這塊,整體上,我覺得作用是有比沒有好,能降低過去很多Roll圖的時間,但是達(dá)不到所謂的完美或者攝影級的水準(zhǔn),但是這畢竟只是第一步,真人的一致性肯定是最難的,等待Midjourney的后續(xù)優(yōu)化。

二、生成2D & 3D人物

當(dāng)不跑真人,而是去跑2D和3D角色的時候,這就讓我驚喜多了。

Niji 6 + cref + sref的組合拳,是我認(rèn)為目前的最優(yōu)解。

prompt寫法也很簡單,角色描述+角色動作+cref。

比如我隨手跑了一個人造人18但是換了衣服,再把提示詞刪了直接去用圖片提示,可以看到角色一致性得到完美的保持,不管是面部、發(fā)型、顏色、衣服,甚至還有身材,都能完美還原...

圖片

如果換成--cw 0,再寫一個運動服。可以看到衣服全變了,但是面部和頭發(fā)都不變,用吉川的話說:頭發(fā)才是二次元的本體。

圖片

再比如,用我之前的橙頭發(fā)妹子,直接跑一個穿皮衣彈吉他的圖,

圖片

當(dāng)然,除了彈吉他之外,她還可以做很多事情。

圖片

而做3D角色也是同理,比如經(jīng)典的泡泡瑪特風(fēng)格的IP。

圖片

三、生成動物

動物的一致性,比我想象的要好很多,因為我一直以為MJ的角色性,真就只有人物的,但是隨手試了一下動物,居然意外的還不錯。

比如用坤哥的《山海奇鏡》里面的狼當(dāng)圖片提示,讓它來抓兔子。

原圖是這樣的。

圖片

讓它去抓兔子以后,就意外的,非常好。

圖片

圖片

比如用朋友的狗當(dāng)prompt,也還原的差不多。

圖片

還有怪物,也很Nice。

圖片

AI繪圖達(dá)到了這種精度,至少去做個繪本,肯定是沒問題了~

寫在最后

在角色一致性上,Midjourney終于踏出了堅實的一步。

首當(dāng)其沖影響的領(lǐng)域,肯定是所有非真人領(lǐng)域,比如游戲、漫畫、動漫、繪本等等。

Midjourney的角色一致性精度,是一個很棒的殺器。

可能他還達(dá)不到絕對一致性得標(biāo)準(zhǔn),但是對于70~80%的工作,我覺得是有巨幅的效率提升的。

同時它也不需要像Stable Diffusion一樣,去高門檻、高成本的訓(xùn)練自己的LoRA,只需要一張圖,就完事了。

高可用性、極佳的用戶體驗、不錯的效果。

我覺得足夠它在商業(yè)領(lǐng)域和專業(yè)工作流中。

有他的,一席之地。

6
查看相關(guān)話題: #ai繪畫 #midjourney #AI圖像生成 #AI測評

相關(guān)文章