梯度下降法第二回——優(yōu)化與比較
接著上文——機器學(xué)習(xí)基礎(chǔ)——梯度下降法(Gradient Descent)往下講。這次我們主要用matlab來實現(xiàn)更一般化的梯度下降法。由上文中的幾個變量到多個變量。改變算法的思路,使用矩陣來進(jìn)行計算。同時對算法的優(yōu)化和調(diào)參進(jìn)行總結(jié)。即特征縮放(feature scaling)問題和學(xué)習(xí)速率α
延伸閱讀
學(xué)習(xí)是年輕人改變自己的最好方式