今天仍是與yolo周旋的日子,繼昨天使用yolov5m的權重下去訓練後,得到的模型效果並不理想,在850張training data下,儘管把batch跟epoch拉高,仍然會把其他的物品錯誤辨認的問題。因此決定選用mAP更高的yolov5x權重下去訓練,然而yolov5x所耗GPU內存是yolo5m的好幾倍,我8G的GTX1650直接跑不起來。尋思之下想到還可以利用雲端GPU,於是改用GOOGLE COLAB的服務去訓練我的模型,colab提供了16G的Telsa T4的顯卡,我用x的權重訓練50次就有很明顯的改善,而後我決定提高訓練次數,不過雖然16G的內存足夠但是本身運行的速度並沒有到很快,而免費的colab又有運行的限制,改用500次訓練次數後,在訓練四個小時後就跳出了GPU用量用盡,受不了就花了錢升級了,40G的P100,只能說...真香。