国产精品天干天干,亚洲毛片在线,日韩gay小鲜肉啪啪18禁,女同Gay自慰喷水

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

解放AI生產(chǎn)力——為什么要使用ComfyUI

2023-03-19 17:05 作者:程序員-王堅(jiān)  | 我要投稿

作者apeiriaDolce近狀態(tài)不好,所以這幾天基本沒干什么,就分享一下和AI繪畫有關(guān)的東西吧。
此前我都沒有抱著一種教學(xué)的心態(tài)來(lái)寫博客,因?yàn)槲宜莆盏臇|西實(shí)在太過(guò)簡(jiǎn)單,只要一說(shuō)大家就會(huì)了,我害怕我在人群里失去自己的特征,但不得不承認(rèn),這是一種很丑陋的心態(tài),重要的是我否定了自己所學(xué)的東西,如果不愿承認(rèn)現(xiàn)在的軟弱,我就始終看不清我走到了一個(gè)什么樣的位置上。
學(xué)過(guò)3D建模的應(yīng)該都知道,3D建模軟件里面都有一套類似于這種的東西:


上面我所展示的,就是今天介紹的重點(diǎn):AI繪畫的工作流,不知道的兄弟也沒關(guān)系,這東西用起來(lái)很簡(jiǎn)單。
但在介紹怎么使用它之前,我先介紹一下它相比于原來(lái)的工作優(yōu)點(diǎn)。
各位請(qǐng)看,這是我原來(lái)的UI:


原來(lái)的UI用起來(lái)很簡(jiǎn)單,輸入正面提示詞和負(fù)面提示詞后點(diǎn)擊生成之后,就會(huì)生成圖片,這也是一開始就有的生成方式。
但點(diǎn)擊生成之后,電腦的內(nèi)部并不像我們使用起來(lái)那么簡(jiǎn)單:
在加載了這個(gè)UI之后,電腦會(huì)首先讀取你原先設(shè)定好的模型,就是我們左上角看見的anything,并且這個(gè)模型類型被限定,隨著某個(gè)日本大神發(fā)明的簡(jiǎn)易訓(xùn)練模型lora誕生,越來(lái)越多的私人模型誕生,但左上角這個(gè)我試了一下,好像沒辦法讀入私人模型,也可能是因?yàn)槲业碾娔X沒有N卡的問(wèn)題,而能否使用私人模型,對(duì)于流水線式的生產(chǎn)圖片很關(guān)鍵
在你點(diǎn)擊生成之后,電腦會(huì)通過(guò)你設(shè)置的采樣器進(jìn)行采樣,采樣生成出來(lái)的圖片會(huì)再次經(jīng)過(guò)vae的處理,如果你的圖片生成出來(lái)偏灰,可以加載一下vae試試。
這樣的生產(chǎn)方式面臨兩個(gè)問(wèn)題:
1.有些東西你很難用文字表達(dá)清楚,比如坐著,腳放在前面。Ai并不知道坐著是什么意思,也不知道腳放在前面是什么意思,但是它會(huì)模仿模型里它已經(jīng)學(xué)習(xí)過(guò)的坐著,腳放在前面的圖片來(lái)生成一個(gè)差不多的給你,問(wèn)題來(lái)了,你怎么知道AI模型里它模仿的圖片是什么樣的?和你不一樣的時(shí)候要怎么辦,萬(wàn)一這個(gè)動(dòng)作它根本沒學(xué)過(guò)呢?
為了解決的這個(gè)問(wèn)題,斯坦福的某個(gè)天才發(fā)明了controlnet,它可以通過(guò)不同的預(yù)處理方式,來(lái)控制圖片的構(gòu)成
不想點(diǎn)鏈接的也沒事,我會(huì)放出圖片:
這是一張用3D建模做的圖片:


利用canny預(yù)處理,這張圖片可以變成這樣:


在這個(gè)插件面世之前,AI生成圖片從來(lái)都是隨機(jī)的,比如這兩張:


如果不是我人為的控制了它,這個(gè)AI可以放縱得更離譜。
通過(guò)上面兩個(gè)例子的對(duì)比各位可以發(fā)現(xiàn),controlnet展現(xiàn)了驚人的圖片控制能力,而不需要人為的控制AI,限制AI發(fā)揮的強(qiáng)度,更厲害的是controlnet不止有canny預(yù)處理這樣將圖像退化為線稿再處理的預(yù)處理方式,它也可以只控制人物的姿勢(shì),而不控制圖像的其他任何部分,只保留產(chǎn)品和建筑物的結(jié)構(gòu),對(duì)產(chǎn)品和建筑物進(jìn)行重新裝修也不再話下,配合文字,可以變成任何你想要的圖片。
說(shuō)了這么多,其實(shí)我想說(shuō),控制AI一直是AI繪畫愛好者的心頭病。
也是面臨的第一個(gè)問(wèn)題:AI生成出來(lái)的東西不可控,單單controlnet的發(fā)明,在AI繪畫圈內(nèi)就引起了巨大的轟動(dòng),但這終究只能控制圖像的冰山一角,想要將AI的生產(chǎn)力解放出來(lái),這還不夠。
舉一個(gè)很恰當(dāng)?shù)睦樱何乙_一個(gè)方便面廠,我生產(chǎn)紅燒牛肉面的時(shí)候你不能給我香辣牛肉面,不然我還要人為地在生產(chǎn)完成后給你分出來(lái),浪費(fèi)時(shí)間浪費(fèi)金錢,而且我不能只有一條流水線,我還得有另一條流水線生產(chǎn)香辣牛肉面,不能兩種面混合著生產(chǎn),不然你就要人為地調(diào)整流水線的生產(chǎn),費(fèi)時(shí)費(fèi)力。
但是很不巧的是,這個(gè)繪畫AI一開始的UI把這兩個(gè)缺點(diǎn)全占了,我們先不從動(dòng)畫說(shuō)起,就以游戲業(yè)內(nèi)最簡(jiǎn)單的圖片CG說(shuō)起:
一個(gè)正常的游戲CG的人物表情是有好幾種變化的,其背后的景物是不能變,為了解決這個(gè)問(wèn)題,我需要讓AI做到景物不變?nèi)俗儯鋵?shí)這很難做到。
可能有一些知道AI繪畫的人會(huì)說(shuō)利用圖生圖降低噪聲強(qiáng)度,減少修改的范圍,只修改你要修改的部分就行了,(或者使用蒙版,意思是一樣的)在這里我可以和你說(shuō),在關(guān)于這個(gè)方法的視頻發(fā)出來(lái)的幾個(gè)月前我就試出來(lái)了這種方法,我可能也是最先放棄它的人。


這是我當(dāng)時(shí)的記錄,時(shí)間去年11月,這個(gè)方法第一個(gè)視頻我沒記錯(cuò)的話是1月才看見有第一個(gè)人發(fā)。
我不是說(shuō)我是第一個(gè)發(fā)現(xiàn)它的人,而是想說(shuō),在評(píng)價(jià)這個(gè)方法的缺點(diǎn)的時(shí)候,我應(yīng)該比你更有發(fā)言權(quán)。
這個(gè)方法屬于治標(biāo)不治本,本質(zhì)上你還是在讓AI隨機(jī)抽卡,而且你修改的范圍再大一點(diǎn)你就會(huì)發(fā)現(xiàn),我靠,兩個(gè)部分的色塊完全不一樣啊。(甚至有可能人都不一樣,如果你是個(gè)小白的話)
或許也有人會(huì)說(shuō),如果AI不能生成只變化圖片的部分的話,那我多生成幾張CG,多良心啊。
大哥,cg的動(dòng)作,場(chǎng)景細(xì)節(jié),光照角度,視角都是要設(shè)計(jì)的,繪畫本身是一門藝術(shù),應(yīng)該要告訴玩家某種感覺,只是排放一堆圖片給觀眾的話,觀眾容易審美疲勞,誰(shuí)還會(huì)注意你的音樂,圖片的細(xì)節(jié)啊。像這種東西建議稱為AI垃圾,和那種口水歌差不多。
這樣的話就更容易出現(xiàn)一個(gè)問(wèn)題了,如果我連場(chǎng)景細(xì)節(jié),光照角度都要管,那對(duì)AI的控制不是更難了嗎?
何止,你不僅要管控制,你還要管AI繪畫的第二個(gè)問(wèn)題:崩壞:
相信大家都或多或少聽說(shuō)過(guò)AI畫手的問(wèn)題吧?
為了避免有些人要睡著了,我先炫一下技:
這是別人的AI畫手:


這是我的AI畫手:


(可能有人感覺我是用momoke模型控制的,我可以保證說(shuō)不是,不信你可以拿我的圖片放進(jìn)你的AI里讀取信息)
在對(duì)SDUI的使用方面來(lái)說(shuō),我可以說(shuō)我比得過(guò)一半的人,即便如此,我依然放棄了它選擇了ComfyUI,為什么?
AI繪畫會(huì)出現(xiàn)這兩個(gè)問(wèn)題,原因很簡(jiǎn)單,因?yàn)檫@個(gè)畫不是我們畫的,而是AI畫的,畫的過(guò)程我們是控制不了的,我們能做的只有點(diǎn)一下生成。
是的,大家應(yīng)該猜到問(wèn)題出在哪里了————點(diǎn)一下生成。
我上面說(shuō)SDUI把兩個(gè)缺點(diǎn)全占了:這里我們重點(diǎn)說(shuō)說(shuō)是哪兩個(gè)缺點(diǎn):
1.我們只能輸入一次,雖然SDUI支持不斷地生成,但除非你人為地去改,否則輸入的內(nèi)容都是一樣的,AI根據(jù)我們的提示輸出的也不會(huì)差太多,就好像我們只有一條流水線,只能生產(chǎn)紅燒牛肉面一樣,但ComfyUI可以有多條流水線。
2.SDUI里面人物和環(huán)境是一起預(yù)處理的,哪怕是controlnet也一樣,這種感覺就好像你生產(chǎn)的一包紅燒牛肉面混進(jìn)了香辣牛肉面的醬包,但ComfyUI可以分開處理:
這是原圖:


接著我跟我的AI強(qiáng)調(diào)了不需要背景,背景接著白色就可以了,但這是效果:


我連手都能控制,卻不能控制背景,因?yàn)镾DUI并沒有給我分開處理的機(jī)會(huì),但ComfyUI給了我這個(gè)機(jī)會(huì),剛才的測(cè)試也成功了。


我明白要說(shuō)明ComfyUI的優(yōu)點(diǎn)應(yīng)該也說(shuō)明一下它的工作方式,可是已經(jīng)快四千字了(好累),我就簡(jiǎn)短的說(shuō)明一下,相比于SDUI,ComfyUI的生成方式并不是點(diǎn)一下鼠標(biāo)就好了,你需要用節(jié)點(diǎn)的方式輸入模型,插件(如果你要使用的話),正面和負(fù)面的提示詞,圖片格式,vae,然后用線把它們連接起來(lái),就像這樣:


在這個(gè)UI中,你每一次的生成并不只是生成一張圖片,而是每一個(gè)應(yīng)該輸出圖片的節(jié)點(diǎn)都會(huì)輸出圖片,對(duì)于同樣一份輸入數(shù)據(jù),你可以用線把它連到不同的節(jié)點(diǎn),用不同的插件和強(qiáng)度處理,然后生成圖片輸入下一個(gè)節(jié)點(diǎn)或者就這樣輸出,它就像有好幾條流水線在同時(shí)工作,并且你可以通過(guò)許多模型控制一張圖片,這在ComfyUI里面時(shí)允許,前面提到了lora,你可以使用多個(gè)自己訓(xùn)練的小模型來(lái)同時(shí)控制圖片,增強(qiáng)你對(duì)AI的控制。
綜上,ComfyUI相比于SDUI,它可以使用多個(gè)流水線工作,用不同的處理方式處理多個(gè)不同的圖片,輸出不同的圖片,如果工作量很大,你只需要調(diào)整后節(jié)點(diǎn)然后出去玩一整天,而不用像SDUI一樣坐在電腦前這張跑完了,換個(gè)輸入數(shù)據(jù)換個(gè)處理方式再跑另一張。
同時(shí),它也支持多個(gè)模型和插件(包括controlnet),輸入數(shù)據(jù)同時(shí)控制一張圖片,滿足你對(duì)視角,動(dòng)作,場(chǎng)景細(xì)節(jié)的要求,甚至得益于它的高效率和搞控制能力,許多AI動(dòng)畫愛好者狂喜,盡管這些人數(shù)量不多,因?yàn)橐龅竭@些,需要和我差不多的對(duì)AI的控制能力,基本沒人會(huì)研究的。(所以在ComfyUI面世時(shí),很多大佬都在狂喜,但卻有很多聲音覺得AI退化了,不會(huì)畫畫,又不去學(xué),只會(huì)讓AI畫,又懶得鉆研........)
雖然cComfyUI很厲害,但它其實(shí)只是把AI工作的過(guò)程透明化了,它的本質(zhì)還是SDAI,我也一直很感謝SDai。


解放AI生產(chǎn)力——為什么要使用ComfyUI的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
清水河县| 屯留县| 衡阳县| 如皋市| 静乐县| 调兵山市| 盱眙县| 永安市| 光泽县| 泗阳县| 新巴尔虎左旗| 肥乡县| 宝坻区| 佛坪县| 广汉市| 霍山县| 伽师县| 剑河县| 修武县| 吉安市| 循化| 上犹县| 东港市| 清水县| 姚安县| 枞阳县| 尼勒克县| 新邵县| 靖西县| 万全县| 长沙市| 全南县| 德州市| 酒泉市| 景德镇市| 迁西县| 平阴县| 舒城县| 郁南县| 靖边县| 综艺|