無代碼做網站seo教程培訓班
問題預覽
- 模型的參數(shù)(w和b)有什么作用?
- 不同的w和b對線性回歸模型有什么影響?
- 訓練集里的y和線性回歸模型預測的y(y帽)的區(qū)別是什么?
- 成本函數(shù)的作用是什么?
- 成本函數(shù)的公式是什么?
- 成本函數(shù)是如何計算的?
- 成本函數(shù)最小化意味著什么?
解讀
(筆者備注:成本函數(shù)和代價函數(shù)是一個意思。)
- 參數(shù)w和b:為了使模型預測的y值更準確,我們需要調整w和b的值。w和b也叫做系數(shù)或權重。例如,我們需要挑選合適的w和b,來讓f(x)這條直線大致通過或接近訓練集數(shù)據。
- 不同的w和b:設置不同的w和b,我們會得到不同的f(x)函數(shù)模型,因此計算出的結果也會不同。
- y和y帽:圖里紅色的×是訓練集的數(shù)據,x是特征,y是目標變量,而通過藍色線條(線性回歸模型)計算出的y,我們叫做y帽(預測值)。
- 代價函數(shù):我們的目的是為了找到合適的w和b,前幾點都在看w和b對線性回歸的影響,而通過代價函數(shù)的計算,我們就能夠找到合適的w和b。
- 代價函數(shù)的公式:Σ是求和的意思,對符號后面的公式求和,從i=1到i=m,有幾次就要計算幾次,然后累積所有計算結果。
- 計算代價函數(shù):我們先計算第一行訓練樣本,f(w,b)就是通過線性回歸,計算的第一行訓練樣本y帽(預測值),預測值在減去第一行訓練樣本的目標變量y,也就是真實訓練集的y,然后對這個差值求平方。然后在計算第二行,第三行,一直到第m行,每次計算的結果都要一直記錄累加,然后最終結果乘以1/2m(m是樣本數(shù)量)。
- 代價函數(shù)最小值:將我們找到的w和b代入到成本函數(shù)中,如果成本函數(shù)能計算出最小值,表示我們當前的w和b的值是最合適的。
總結
想要比較完美的擬合數(shù)據,我們需要找到合適的w和b來構建線性回歸模型。
通過將當前w和b代入到成本函數(shù),我們可以通過成本函數(shù)的值來判斷w和b是否合適,如果成本函數(shù)是最小值,則w和b的參數(shù)是最合適的。
成本函數(shù)的計算方式是每一行的訓練樣本都要計算,然后累加每一行的結果。
后續(xù)課程會詳細講解代價函數(shù)以及如何計算成本函數(shù)的最小值。