
大家好,我是三石。
最近發現大家對 Flux 模型及其 ComfyUI 工作流不太清楚,不知道跟 SDXL、SD1.5 的區別是什么,也不太清楚工作流的基礎搭建和 SDXL 這類的工作流的區別,包括后面的 ControlNet 的搭建,感覺暈暈的。
現在我將通過上下兩篇文章幫助大家更好地理解 Flux 模型和工作流的搭建,并共安排 8 個典型的工作流搭建方法(上下兩篇),如文生圖、圖生圖、放大、遮罩重繪、物品替換、風格遷移等。讓大家迅速適應并熟悉 Flux 的工作流搭建方法,為后續的學習打好夯實的基礎!
相關干貨:
本篇我們將學習 Flux 模型解析和 4 個基礎工作流:
Flux 模型是由黑森林團隊(Black Forest Labs)于 2024 年 8 月推出的最新一代的文生圖大模型,特點就是分辨率高、提示詞精準和識別能力強。目前是業內開源大模型的標桿。當然,現在 QWEN 已經出來了,后續有機會可以給大家做個模型之間的比較。下方是 FLUX 模型生成的一些圖片,我們看下實際出圖效果,會發現在細節上會比 SDXL 等老版本的模型表現更加出色,光感和材質的質感也表現的很出色。

FLUX出圖效果
所以我強烈建議大家使用最新的模型來出圖,雖然后面的 ComfyUI 工作流在搭建上有些許的差異,但是還是值得我們使用的。那 FLUX 的模型在哪里下載呢?
截止目前,Flux 模型有三大版本,分別是 FLUX.1(pro)、FLUX.1(dev)和 FLUX.1(schnell)三個大版本。之間的差別如下圖:

FLUX三個版本模型的差異
此外,FLUX 模型對文字的理解能力也很強,比如我輸入提示詞:
"Under the sea, four large letters 'LOVE' floating in clear seawater, each letter with a smooth, semi-transparent surface reflecting sunlight filtering through the water, surrounded by small bubbles and shimmering particles, soft light rays penetrating from above, creating a dreamy and romantic atmosphere, digital art style, hyper-detailed, vibrant colors, realistic water texture, 8K resolution"。
得到下面這張圖,不會出現不理解文字的情況。

Flux對文字的理解
大家如果想下載模型的,可以登錄 HugggingFace 官網的 Black Forest Labs 主頁(https://huggingface.co/black-forest-labs)進行下載,如下圖。如果本地電腦配置低,也建議大家用在線 ComfyUI 平臺運行,好處就是不用自己費勁裝模型。

FLUX模型下載
還有一點就是大家別忘了下載 Flux 的專屬 VAE 模型,如下圖:

VAE模型下載
既然 Flux 模型這么強,那我們有必要了解它為什么這么強?原因是什么?知道了底層原理,我們對模型才能真正摸透,而不是停留在表面山的理解。
我們都知道,大模型的訓練需要先學習,比如我想生成貓的圖片,那首先需要讓計算機先學習幾百張貓的圖片,然后我們給這些圖片“打標簽”,再轉換成計算機能理解的語言,這是一個基礎的模型學習和訓練過程,但真實情況遠比這復雜的多(涉及很多技術和算法知識)。
所以學習的數量和質量就尤為關鍵。在網上我大概了解到:SD1.5 模型大概有 4.2 億參數,而 Flux 有 120 億參數。那學的數量多,自然出圖的效果好。而且,SD1.5 的訓練圖片尺寸是 512*512,而 SDXL 的訓練圖片尺寸是 1024*1024, FLUX 也是 1024*1024,因此,我們會發現 SDXL 和 Flux 的出圖效果要比 SD1.5 好很多,也清晰很多。在提示詞的理解能力上,Flux 基于多模態架構,能夠理解多模態指令,所以對提示詞的理解能力更強。
關于這三個模型的差異,大家可以看下圖:

三個模型的區別
了解了 Flux 模型的優勢及與其它模型的差異,我們現在就可以著手開始搭建最基礎的 Flux 文生圖工作流了。與傳統的 SDXL 的文生圖工作流不同的是,Flux 模型中沒有 CLIP 和 VAE,所以我們需要將原來的「Checkpoint 加載器」節點變成三個不同的節點來組合使用,如下圖所示。在「Checkpoint 加載器」中有三個輸出,分別是 MODEL、CLIP 和 VAE,換到 FLUX,就需要分別加載「UNet 加載器」、「雙 CLIP 加載器」和「加載 VAE」三個節點。

第二個差異點是 Flux 不需要負面提示詞,所以原來 SDXL 這些模型的 CLIP 輸入需要輸入正向、負向兩段提示詞,現在換到 Flux,只需要輸入正向提示詞。因此我們還需要用到「條件零化」節點,將負向提示詞直接零化掉。再連接到 K 采樣器即可,如下圖。

第三個差異點是再「CLIP 文本編碼器」和「K 采樣器」之間,還多了一個「Flux 引導」節點。這個節點其實是代替了「K 采樣器」里面的“cfg”。「Flux 引導」的數值對畫面的影響還是比較大的,引導系數越大,圖像和提示詞的匹配度越高,但是缺乏藝術表現力;反之,數值越小,出圖更有創意。簡單說,「Flux 引導」就是告訴模型我這張圖片到底需要有多聽提示詞的話。
我們可以做個簡單的測試,輸入以下提示詞(提示詞來自網絡,僅為參考):
Surreal 4k painting of a beautiful alien princess with expressive lilac eyes and cosmic features. Her skin appears to be composed of intertwined bioluminescent particles, surrounded by neon lights and floating, colorful orbs in a fantastical forest environment, with exotic animals creating a mesmerizing and otherworldly atmosphere, cinematic composition.
翻譯:這幅超現實的 4K 畫作描繪了一位美麗的外星公主,她有著富有表現力的淡紫色眼睛和宇宙般的五官。她的皮膚似乎由相互交織的生物發光粒子構成,周圍環繞著霓虹燈和漂浮的彩色球體,周圍是奇幻的森林環境,珍奇的動物營造出一種令人著迷的、超凡脫俗的氛圍,如同電影般的構圖。
我們分別設置 Flux 引導系數為 2.5、3.5、10、20,得到的畫面如下圖,發現提示詞越小,畫面會整體顯得灰暗,過大則會缺少藝術表現力,所以建議大家使用默認值 3.5 即可。

Flux不同引導系數的差異
最后一個差異點就是在「K 采樣器」中,我們需要把“cfg”的數值調整為 1。cfg 的意思是對提示詞的契合度,因為前面已經有「Flux 引導」來代替“cfg”了,所以「K 采樣器」里的“cfg”需要設置為 1,也就相當于“禁用 cfg”了。
到這里,我們就將 Flux 模型在 ComfyUI 中的基本文生圖工作流搭建結束了。如下圖:

FLUX文生圖工作流
了解了 Flux 的文生圖工作流,圖生圖工作流就比較簡單了,跟 SD 的圖生圖工作流是一樣的,我們只要把上傳的圖片先通過「VAE 編碼」連接到「K 采樣器」的“latent_image”(也就是潛在空間),再設置“降噪”數值為 0.8 左右即可,這樣相當于告訴模型 80%參考提示詞,20%參考圖片,所以出圖結果會更偏上傳的圖片,如下圖所示。

flux圖生圖工作流
當然,我們還可以通過提示詞反推節點來獲得跟原圖類似的結果,這里用到的節點是「Joy Caption Two」,如下圖,我們將上傳的圖片給到「Joy Caption Two」輸出提示詞,再將提示詞輸入給「CLIP 文本編碼」。

提示詞反推節點
其余連接保持不變,這樣我們就能得到一張跟原圖類似的圖案,如下圖。

出圖結果
局部重繪工作流需要用到「Detailer (SEGS)」局部細化節點來替代「K 采樣器」,然后用「MASK to SEGS」遮罩到 Seg 來將需要重繪的部分給到「Detailer (SEGS)」的“Seg”,如下圖所示。需要注意的是在「Detailer (SEGS)」節點中,也需要將“cfg”數值調為 1,并且將“denoise”數值下調。

局部重繪節點
最后在「CLIP 文本編碼」中輸入想要替換的內容,如下圖,我想將女孩的頭發變成紅色,就要輸入“red hair”。如下圖,這里我把“denoise”降噪設置為了 0.95。如果設置為 1 的話,相當于 100%參考提示詞,最終出圖的頭發會完全變成另外一個樣子,如下圖 2。

局部重新繪制 denoise=0.95

denoise=1
最后給大家分享的是 Flux 的高清放大修復,該工作流跟 SD 的高清放大差不多,都是用到「Ultimate SD Upscale」節點,在文生圖中,只需要把該節點連接到「K 采樣器」后面就可以了,連接方式也比較簡單,該節點中雖然參數很多,但是需要了解的只有“upscale_by”、“cfg”、“scheduler”和“denoise”四個參數,它們的作用分別是:
upscale_b:放大倍數
cfg:跟采樣器中一樣,設置為 1
scheduler:跟采樣器中一樣,設置為 simple
denoise:重繪幅度,默認 0.2
下圖是放大前后的對比,可以看出,發絲、盔甲等細節都比放大前要清晰很多。

放大前后效果對比
整個工作流如下:

文生圖高清修復放大工作流
在圖生圖中,我們也可以使用「Ultimate SD Upscale」節點將圖片進行高清放大修復,搭建的流程差不多,但是不需要「K 采樣器」了,直接連接到「Ultimate SD Upscale」節點就行。然后在「CLIP 文本編碼器」中輸入一些關于質量的詞匯,如:high quality, detailed, highly detailed, hd, 8k , 4k, sharp
整個工作流如下圖:

圖生圖高清修復放大工作流
ok,今天的分享到這里就結束啦,本篇文章主要幫助大家從 0-1 熟悉 Flux 模型和之前模型的差異點,并分享了 flux 模型基本工作流的搭建方法,包括文生圖、圖生圖、局部重繪、高清放大。不難發現,工作流中很多節點和之前的 SDXL、SD1.5 沒有太大改變,只是在模型加載和提示詞調整這兩部分有些許的變動,所以大家不用擔心 Flux 的上手難度會很大。了解了原理之后,我覺得反而比之前的工作流更精簡、也更容易理解了。
下一篇文章,我會和大家分享 Flux 的進階工作流,包括換背景、萬物遷移、風格遷移、修復手型等工作流,期待一下吧。
謝謝!
復制本文鏈接 文章為作者獨立觀點不代表優設網立場,未經允許不得轉載。




發評論!每天贏獎品
點擊 登錄 后,在評論區留言,系統會隨機派送獎品
2012年成立至今,是國內備受歡迎的設計師平臺,提供獎品贊助 聯系我們
MJ+SD智能設計
已累計誕生 771 位幸運星
發表評論 為下方 8 條評論點贊,解鎖好運彩蛋
↓ 下方為您推薦了一些精彩有趣的文章熱評 ↓