明天開始要去台大連上三天的人工智慧課程,等下課後再回來更新上課的內容。
今天又在搞tensorflow的問題,嘗試了另一個人寫的github跑跑看,結果他的程式碼是用tensorflow1.多版的才跑得動
,害我又把升級上去的2.3.0降下來1.15.0,不過終於可以跑了,但是沒用GPU真的超級慢
後來直接停掉不跑了。
boosting演算法是一種通過多次學習來提升演算法精度的方法,是一種將弱分類器提升為強分類器的方法。弱分類器就好比之前提到的SVM。
bagging跟boosting都是屬於集成學習方法(Ensemble Method)是指組合多個模型,以獲得更好的效果,使集成的模型具有更強的泛化能力。
隨機森林就屬於bagging的一種,而boosting的話大家比較常聽到的就屬adaboost跟xgboost了。
AdaBoost(Adaptive Boosting)是一個自適應更改的迭代過程,通過更多地關注來分配培訓數據在先前錯誤分類的記錄上,前一個分類器分錯的樣本會被用來訓練下一個分類器。在每一輪中加入一個新的弱分類器,並且給予權重,上一次的分類錯誤將會使它增加權重,如果某個樣本點已經被準確地分類,那麼在構造下一個訓練集中,它被選中的機率就被降低;相反,如果某個樣本點沒有被準確地分類,那麼它的權重就得到提高。通過這樣的方式,AdaBoost方法能“聚焦於”那些較難分(更富資訊)的樣本上。如下圖。
之後的明天更,不早點睡,明天又起不來了= =。