大佬您好,想問問看我這裡第20區塊的QWENVL區塊一直顯示錯誤無法生成提示詞以外,並且也有打開區域22無法生成影片,想問問看是為甚麼,謝謝大佬!! https://truth.bahamut.com.tw/s01/202511/af694c08fa4006dd928c7e1391ba177d.JPG
*2025-11-03 update:新增懶人用生圖模型下載方法。
ComfyUI 工作流使用說明、
概述與工作流簡介、
ComfyUI 是一個高效能且高度自訂化的節點式(Node-based)Stable Diffusion 介面。本工作流是基於一位 PTT 先進的設計進行個人式強化與改造,旨在為使用者提供一套高效、高品質的二次元角色圖像與影片生成解決方案。

*工作流就是這張圖,需要comfyui版本0.3.60以上,因為有使用子圖功能。
原作者文章、
https://www.pttweb.cc/bbs/AC***/M.1760674780.A.3C5
該ptt版面咎於巴哈站規所以無法完整po上來,懂得都懂
1.工作流主要功能
原工作流的設計目標是簡化複雜的 AI 繪圖流程,實現「角色」+「服裝」+「情緒動作」的組合輸出。

個人在此基礎上改造的工作流是一個創造二次元角色圖與動畫的工作流
."角色" + "服裝" + "情緒動作"的組合,可輸出匯入RisuAI的角色套圖
*個人沒在玩RisuAI,原工作流的用處就是這個。
.參數都設定好了,使用者只需要 填提示詞 > 選擇強化選項 > 生成圖片
.原作者已經收錄了韓網卡片常出現的SFW與NSFW情緒動作,共110組
.關掉影片區塊本工作流也可以當作一般出圖流程
以上是原工作流有的功能,個人改造過的工作流多了:
.生成圖片去背
.如有開啟強化選項,可以在QA區域直觀的比對圖片未強化與強化後的變化
.角色、服裝、情緒動作隨機選擇功能
.根據生成角色圖面、情緒動作、影片長度來「自動」生成影片
.影片計算以480P為主,故有放大影片以及替影片補幀的功能
.增加記憶體清理節點避免工作流長時間運行出錯
.生成圖片/影片會按照角色名稱以及圖片/影片不同,分門別類放置
本工作流穩定性:

連續跑了幾小時,應該OK的。
*個人未來想加的功能:Wild crads、一次出全套角色動畫。
*如果個人做得到的話 ¯\_( ͡° ͜ʖ ͡°)_/¯
▼性能參考 (RTX 5060ti 16GB)
單圖生成時間(解析度1024*1536)
●強化選項全關~22秒左右 (原作者~60秒)
●強化選項全開~70秒左右 (原作者~2分15秒)
*個人改造版加上加速節點,拿掉了 Hires Fix,採用放大兩倍的RealESRGAN_x2plus作為放大模型,並調整了face detailer/Detailer 數值,所以速度比原作者更快。
產圖並自動生成影片時間(圖強化全關、計算5秒影片)
●原始影片~370秒左右
●影片放大~425秒左右
●影片補幀~400秒左右
●影片放大加上補幀~470秒左右
*調整節點順序可以再加快一點,但是影片效果會變差
本地端硬體建議
本工作流結合了圖片生成、語言模型及影片模型,對硬體要求較高:
建議:VRAM 16GB,RAM最少64GB
最低要求:VRAM 12GB,RAM最少64GB (應該跑得起來)
不建議:VRAM 8GB 不建議執行此工作流
準備好了嗎? 要開始囉!
2. 環境準備與安裝指南
2.1 ComfyUI 主程式安裝
建議採用 Windows 攜帶版安裝方式,因其自動化程度高,有助於解決依賴項問題。
先下載好工作流,會用到,用到時將圖直接拖進去comfyui工作區就好。
2.1.1 官方 Desktop 版 (一般安裝)
(1). 下載並安裝ComfyUI (https://www.comfy.org/)
(2). 載入工作流(或直接用滑鼠拖進ComfyUI),會跳出缺少節點以及模型的通知出來,不要管它按X關掉。
(3). 點擊 Manager(管理器),點擊"Custom Nodes Manager"下面的"Install Missing Custom Nodes"
(4). 使用"ID"左側的勾選欄位,一次選取所有的缺少項目,一併全部安裝:

(示意圖)
(5). 安裝完成後,重啟 ComfyUI
2.1.2 Windows 攜帶版 (推薦)
(1). 先安裝git (https://git-scm.com/)
(2). 隨便找個目錄安置下載ComfyUI的專案,檔案總管中在該目錄下打開power shell
(WIN11:在目錄空白處滑鼠右鍵->在終端中開啟)
(3). power shell中使用指令
"git clone https://github.com/Tavris1/ComfyUI-Easy-Install.git"
安裝下載ComfyUI的專案。
(4). 進入 ComfyUI-Easy-Install 目錄,雙擊執行"ComfyUI-Easy-Install.bat",它會自動安裝ComfyUI以及一些常用的Custom nodes。

(5). 進入下載的 ComfyUI-Easy-Install/Add-Ons 目錄裡雙擊執行"SageAttention-NEXT.bat",它會自動安裝SageAttention。
(6). 將下載的 ComfyUI-Easy-Install 目錄重新命名為您喜好的名字,並將它移動到其他目錄
(7). 執行目錄下的"run_nvidia_gpu.bat"來跑ComfyUI
(8). 載入工作流(或直接用滑鼠拖進ComfyUI),會跳出缺少節點以及模型的通知出來,不要管它按X關掉。
(9). 點擊 Manager(管理器),點擊"Custom Nodes Manager"下面的"Install Missing Custom Nodes"
(10). 使用"ID"左側的勾選欄位,一次選取所有的缺少項目,一併全部安裝
(11). 安裝完成後,重啟 ComfyUI;重啟完畢後請重新整理瀏覽器頁面
*ComfyUI-Easy-Install可以在專案目錄內使用指令"git pull",維持專案在最新版的狀態
別著急,還有模型要安裝,再檢查一遍節點吧!
2.2 所需節點列表

*截圖時沒注意到,AI給我偷加東西,res_2s採樣是可以用,但是慢。
2.3 Python 依賴項 (加速運算)
這兩項用於加速運算,如已使用 SageAttention-NEXT.bat 安裝,則無需手動操作。
sageattention加速計算 https://github.com/woct0rdho/SageAttention/releases 可選,不裝需關閉 區塊98
Triton-windows加速計算 https://github.com/woct0rdho/triton-windows 可選,不裝需關閉 區塊98
2.4 模型檔案下載與路徑
所有生圖模型檔案請從 Hugging Face 專案庫:
進入各子資料夾下載,並放置於ComfyUI/models/下的對應路徑。
工作流的備註個人也有做模型連結供點擊下載。
[File save location-生圖]
ComfyUI/
├───📂 models/
│ ├───📂 checkpoints/
│ │ ├─── waiNSFWIllustrious_v150.safetensors
│ │ └─── waiNSFWIllustrious_v140.safetensors
│ ├───📂 clip_vision/
│ │ └─── CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors
│ ├───📂 ipadapter/
│ │ ├─── ip-adapter-plus-face_sdxl_vit-h.safetensors
│ │ └─── ip-adapter-plus_sdxl_vit-h.safetensors
│ ├───📂 loras/
│ │ └─── 各種LoRA放到這個目錄下
│ ├───📂 sams/
│ │ └─── sam_vit_h_4b8939.pth
│ │───📂 ultralytics/bbox/
│ │ ├─── face_yolov9c.pt
│ │ └─── hand_yolov9c.pt
│ │───📂 upscale_models/
│ │ ├─── RealESRGAN_x2plus.pth
│ │ └─── RealESRGAN_x4plus_anime_6B.pth
要件:git (https://git-scm.com/) 已安裝
1.找個空目錄放下載的模型
2.檔案總管中在該目錄下打開power shell
(WIN11:在目錄空白處滑鼠右鍵->在終端中開啟)
3.使用指令
"git clone --depth 1 --branch main https://huggingface.co/JCscrew/RisuAI_asset_generator"
這會將原作者準備好的模型一併下載完畢(約32GB 2025-11-03時點)
4.把裡面目錄"RisuAI_asset_generator\models"下面的所有資料拖進新裝好的"Comfyui\models"目錄裡就解決,其他的專案檔案可以刪除
WAN 2.2 模型連結在工作流中生成影片區域旁邊的備註:「⏳WAN2.2模型連結_AC fix」裡面
[File save location-WAN 2.2]
ComfyUI/
├───📂 models/
│ ├───📂 clip_vision/
│ │ └─── clip_vision_h.safetensors
│ ├───📂 diffusion_models/
│ │ ├─── wan2.2_i2v_low_noise_14B_fp16.safetensors
│ │ └─── wan2.2_i2v_high_noise_14B_fp16.safetensors
│ ├───📂 loras/
│ │ └─── 各種LoRA放到這個目錄下
│ │───📂 text_encoders/
│ │ ├─── umt5_xxl_fp8_e4m3fn_scaled.safetensors
│ │ └─── umt5_xxl_encoder*.GGUF
│ │───📂 unet/
│ │ └── *.GGUF
│ │───📂 vae/
│ │ └── wan_2.1_vae.safetensors
接下來...是這樣做嗎?
3. 工作流操作與區塊說明
請先將工作流左上原作者的說明以及個人追加的說明看完,
3.1 全區塊說明

紅色區 01 ~ 02 模型載入區、出圖模型設定區。基礎模型、採樣器等低頻調整。
黃色區 03 ~ 08 圖片尺寸、強化功能區。包含批次大小、LoRA、一致性、修臉/修手等強化選項開關。
綠色區 09 提示詞區。最常調整的正/負面提示詞。
藍色區 10 ~ 11 選擇器區。透過輸入數字選擇預設角色/服裝/情緒動作。
紫色區 12 ~ 26 出圖/輸出區。包含圖片生成、去背、影片生成等最終流程。
黑色區 95 ~ 99 系統節點。包含檔名處理、加速節點、記憶體清理等。
提醒:覺得走線複雜時很難看清時,可點擊右下角的 隱藏鏈結/Hide Link 簡化視覺;相較原作者的工作流,個人的工作流已經儘量減少視覺負擔了。
3.2 🟩 綠色區:提示詞與組合結構
提示詞結構(供 Illustrious 模型使用)
模型特性:Illustrious 模型需使用單字或英文短詞作為提示詞,無法直接使用自然語言或中文。
組合結構:情緒動作 + 人物 + 服裝 + 隨機詞 + 正面提示詞
注意事項:情緒動作的第一個提示詞通常用於指定人數(許多模型需要)。
正面提示詞:設定套圖畫風、背景、與必要提示詞。
負面提示詞:盡量少填,填太多會使 Illustrious 模型的輸出變差。
waiNSFWIllustrious 模型已經可以直接用名字當提示詞的角色可以在這邊找:
找到後,將角色名字填入"👤 角色名稱"節點欄位,角色prompt填入"👤 角色提示詞 "欄位,選擇器再按照"👤 角色名稱"節點的順序填"👤 角色名稱(僅人名)"進入"📌 角色選項"裡;
填完大概是這樣:

服裝也是一樣的操作。
自由出圖模式
若不想出套圖,只想自由繪圖,可採取以下設定:
人物、服裝、情緒動作選項全部設定為 0(不使用);隨機詞庫清空;將所有提示詞統一寫在 正面提示詞 欄位。
3.3 🟦藍色區:選擇器
📌 角色、服裝、情緒動作設定:
第一行務必留空,作為 0. 無 的預設。

隨機選擇功能隨機選擇開關 (在[區塊快速開關暨導引]旁邊):
1. Off / 2. On。

亂數範圍:亂數範圍可以在選擇器的隨機亂數節點中自行設定修改。

好像哪裡不太對勁?!
4.進階設定與強化
4.1 圖片強化 (黃色區塊)
●01.1 收縮模型 可防止因解析度造成的人物變形,但有使用 LoRA 時請關閉。
●06 / 07 臉部/手部修整 FaceDetailer 與 Detailer 數值已微調,並使用 ConditioningZeroOut 負面條件。如果有需要可以將臉部/手部修整的提示詞作針對性修改。
●08 圖片放大修飾,預設產出為原生尺寸的 2 倍。Hires Fix 已移除。
●預設放大節點為 Upscale Image ,個人有提供效果較好的 CR Upscale Image 節點供使用者自行接線選用。
4.2 影片生成區域 (黃色區塊 20 ~ 21、紫色區塊 22 ~ 26)
影片生成功能需要 QwenVL 節點及 WAN 2.2 模型支援,對 VRAM 和 RAM 需求高。
●區塊20 自動生成影片提示詞,必須與 區塊 21 同時開關。Qwen3 VL 模型表現優於 2.5。
QwenVL 節點VRAM 建議:24GB以下請勿選擇 8B 語言模型;VRAM 12GB 或 16GB請選擇 4B 模型。
模型載入:keep_model_loaded 可減少後續計算讀取時間,但需消耗大量記憶體。
●區塊21 WAN 2.2 生成影片,高躁流程個人使用 Q5 模型,維持品質並減輕系統負擔。若人物一致性差,可將高躁加速 LoRA 換成 WAN 2.1(低躁用)並將權重調為 3。
●區塊22 ~ 25 影片輸出,建議只開啟其中一區(原始、放大、補幀、放大+補幀)。
●區塊26 儲存原始影片末張圖 供使用者將影片結果圖延伸使用。
4.3 記憶體與加速 (黑色區塊 98~99)
●加速節點 (區塊 98):需 sageattention 和 Triton-windows 依賴項。若未安裝,請使用區塊快速開關將 區塊 98 關閉/刪除。區塊 99為補充加速性質的節點,windows版comfyUI且torch版本為2.7.1或是2.9的可以自行接上使用。torch 版本為2.8不要用,高機率卡死。
Free...hug??
給熟悉ComfyUI的使用者參考:
工作流流程、
◆生圖
模型 > *LoRA > *IPAdapter > *加速節點 > *修臉 > *修手 > *Upscale > 出圖
◆生成影片提示詞
生成圖面 > *語言模型 > *WAN 2.2 影片生成
◆*WAN 2.2 影片生成
生成圖面/影片提示詞 ↘
模型 > LoRA > *加速節點 > 強化影片節點 > 編碼採樣 > Upscale或是補幀 > 出影片
*開頭為可選功能,語言模型與WAN 2.2 影片生成需同開同關。
★注意事項與預設問題 (FAQ)
Q:我沒裝加速用的 Python 依賴項或記憶體清理節點,會影響運行嗎?
A:不會影響基礎運行。若不使用就是會變慢。此時個人建議將工作流中的區塊 98 (Python 依賴項加速) 和 記憶體清理節點 關閉或刪除,以避免不必要的錯誤或警告。
Q:我的 VRAM 不夠跑影片生成。
A:WAN 2.2 模型優先選擇 Q2_K 或 Q4_K_S 等小尺寸 GGUF 模型,並參照QwenVL 節點 VRAM 建議,確保 VRAM < 24GB 時不選擇 8B 的模型。
Q:如何快速開啟/關閉區塊功能?
A:使用節點[區塊快速開關暨導引]每個區塊右邊的開關按鈕。開關右方的箭頭可以快速導航到該區塊。

感謝觀看!!
要再來喔~誒嘿嘿