終於開始放年假了,之前線性代數的eigenvalue, eigenvector沒有弄得很清楚,因此昨天把補習班的教材拿出來重翻了一遍,看著看著就想起國中的回憶....(繼續閱讀)
Loss Function (損失函數) 又稱 Cost Function (自翻: 成本函數),最常解釋為衡量深度學習模型的預測值 (predict valu...(繼續閱讀)
當我們想用數學式達到 if-else 的功能時,可以這樣寫:
下圖(式一) 是深度學習領域的 Binary cross entropy,y_true^n 是 L...(繼續閱讀)
Life-long learning: 使 model 能夠依序學會多種任務,不會學了新的就忘了舊的任務
Transfer Learning: 訓練好一個 m...(繼續閱讀)
最近又開始使用 WSL2 了,WSL2 的預設介面有個問題: 「輸入位置(指標)不會閃爍」,常常會找不到自己正在輸入的位置,這對修改 command 非常困擾,...(繼續閱讀)
今天仔細探究了傅立葉變換,這影片真好~然而......
(鳩都嬤得~ 開始歐北共之前先把我今天的學習心得記錄一下~~)...(繼續閱讀)
高中統計有學過「數據標準化」:其實就是大學常講的 Z-Score (Z-分數),又稱為「Standard Score (標準分數)」。英文維基上稱此方法是一種「...(繼續閱讀)
(這裡純粹記錄一些不易分類的個人心得,關於 AI 的細節筆記是放在 Hackmd)
過去就有利用多層網路來建造 Powerful 預測函數的想法,但是有礙於過...(繼續閱讀)