在幾百年前發過用AI生圖的文章
那篇已經太老舊,因此更新完UI後,預設模組也要修改
建議可以去這裡找幾個自己喜歡的下載 (也有18X專門的)
只是後來個人覺得AI太難控制,生出來也不是自己畫的圖就放棄繼續深入研究,直到ControlNet這技術誕生,感覺大有可為
配合前一陣子出的lora技術,也就是能簡易訓練小模型的方式
詳情請看
這東西是拿來做甚麼呢?目前是拿來訓練特定人物或是畫風,例如二創角色都有固定特徵,只要先讓AI學習該人物的畫法配色,AI就能生出差不多的東西。
我們把兩者結合可以得到甚麼呢?就是更精準的構圖+上色。
而結合最大的好處其實不是畫插畫,而是畫”漫畫”。
是的,我們可以把自己畫的漫畫人物當作資料輸入到AI中訓練,再畫出漫畫草稿動作,ControlNet去指定動作。輕鬆畫漫畫的時代可能即將到來了。
實際上已經有人開始實驗這種功能
由於個人並不是專業AI用戶,所以先從AI上色開始測試
教學部分請參考
這次就拿昨天畫的線稿來讓AI上色
預處理選none,model選canny (抓輪廓)
當然這還不夠,為了讓AI能準確上色需要先訓練一個lora模型
把新髮型的影片截圖去背進行訓練。
訓練結果lora權重大約在0.6是最好的。
其他如scribble會讓裡面表情跑掉
Canny
scribble臉整個跑掉了,死小孩表情消失
灰階上色,預處理跟模型都用Canny,細節增加,雜訊也變多,要修正的東西也變多
缺點還是一樣,AI會讓畫風偏向lora訓練的結果,無法維持原來的風格。
細節同樣還是會亂畫需要自己修。
未來作家畫漫畫人物丟去lora訓練,ControlNet將分鏡草稿變成漫畫,相信AI會成為漫畫家很不錯的輔助工具,因為漫畫不須像插畫把所有光影跟細節都畫得很美麗,只要足夠能表達自己的故事就行。
結論:AI對於插畫師而言依然很難搔到癢處,因為一個成熟的插畫師風格會被AI破壞,而且圖一大要修正的部位也會大幅增加,對於需要耐看的商業插畫可能沒那麼合適,但對於想要講故事的人來說,未來是超大利器,好好靜待它的發展,可能任何人都能成為漫畫家或是概念設計師。