切換
舊版
前往
大廳
主題

對於AI繪圖在遊戲美術應用的期望

crodis | 2019-04-19 17:14:54 | 巴幣 0 | 人氣 355

小弟是一個電繪新手,
只能利用休閒時間獨自一人作業,
又想要自己畫彩圖給遊戲用.

以下是我對AI繪圖在遊戲美術應用的期望:

從做2D遊戲來看,
應該可以讓我有比較多的時間在草稿構圖上,
描完線稿之後就只是做審圖的工作,
把著色都交給AI去做.

再把時間拉得遠一點到畫風上,
等我參透AI的演算法,
資金上也夠我能夠玩得起Deep Learning,

( 硬體需求參考:

到時再來調整線條與配色上的風格,
(例如自己臨摹出某位畫家的風格)
用自己臨摹出來的圖來訓練AI,
這樣就不會只能挑別人訓練好的Model來用.

從做3D遊戲來看,
我認為AI自動上色能夠當作PC的第2個著色器(shader)來使用,
也就是在GPU網格上色的基礎之上,
更進一步對角色和場景進行動漫風格上色.
(像我在玩閃之軌跡的時候就很希望クレア在地圖畫面
能夠跟選單畫面中的角色一樣好看)

會有這個想法,
(1) 在硬體面,是看到了Coral在今年3月推出的這塊板子:
(48mm x 40mm x 5mm)

在這4.8cm*4cm的電路板上,
就同時有CPU,GPU,以及Google Edge TPU,
輸出有HDMI Port,耳麥孔,
有Wifi,有藍芽,
作業系統為Linux.
這已經算是一個微型PC的配備了.

這還只是Google 市售Edge TPU的第一款開發板,
詳細看DataSheet還是可以發現有不少的限制,
而最大的限制就是目前的Edge TPU是主打低功耗而非高速運算,
(雖然這樣講,但單論處理速度,CPU+Edge TPU在AI上還是大幅優於CPU)
再來就是程式碼只支援Tensor Flow Lite.

(2) 在軟體面,是看到了Video-to-Video Synthesis的技術

在以往的3D遊戲場景製作上,
光是一個人物的建模,
資深的美術團隊就得花上大把時間去製作,
然後法線貼圖與光影效果又是另一項時間成本.
再來就是3D建模做出的效果會比較像真人,
而這種畫風就不是我想要的.

Video-to-Video Synthesis的技術
需要的只是簡易的影片(只有輪廓和填色)搭配訓練好的Model,
在訓練這個Model需要的只是照片,
然後就能做出真實影片的效果.

如果換成是遊戲,
這時訓練Model的就會是場景圖片,
而預期可得到的遊戲畫面就會是動畫的效果.

就現狀看來,
要使用這項技術來應用在3D遊戲上,
最大的限制就是需要移掉讓玩家切換視角的功能,
因為拿來訓練的圖片通常不會有所有的視角,
尤其像我這種獨自一人作業的休閒玩家.

創作回應

更多創作