国产亚洲精品福利在线无卡一,国产精久久一区二区三区,亚洲精品无码国模,精品久久久久久无码专区不卡

當(dāng)前位置: 首頁 > news >正文

專門做店面裝修設(shè)計(jì)的網(wǎng)站關(guān)鍵詞優(yōu)化最好的方法

專門做店面裝修設(shè)計(jì)的網(wǎng)站,關(guān)鍵詞優(yōu)化最好的方法,連云港做網(wǎng)站,怎樣做美食網(wǎng)站我們今天介紹一下神經(jīng)網(wǎng)絡(luò)中的歸一化方法~ 之前學(xué)到的機(jī)器學(xué)習(xí)中的歸一化是將數(shù)據(jù)縮放到特定范圍內(nèi),以消除不同特征之間的量綱和取值范圍差異。通過將原始數(shù)據(jù)縮放到一個(gè)特定的范圍內(nèi),比如[0,1]或者[-1,1],來消除不同特征之間的量綱和取值范圍…

我們今天介紹一下神經(jīng)網(wǎng)絡(luò)中的歸一化方法~

之前學(xué)到的機(jī)器學(xué)習(xí)中的歸一化是將數(shù)據(jù)縮放到特定范圍內(nèi),以消除不同特征之間的量綱和取值范圍差異。通過將原始數(shù)據(jù)縮放到一個(gè)特定的范圍內(nèi),比如[0,1]或者[-1,1],來消除不同特征之間的量綱和取值范圍的差異。這樣做的好處包括降低數(shù)據(jù)的量綱差異,避免某些特征由于數(shù)值過大而對模型產(chǎn)生不成比例的影響,以及防止梯度爆炸或過擬合等問題。

神經(jīng)網(wǎng)絡(luò)中的歸一化用于加速和穩(wěn)定學(xué)習(xí)過程,避免梯度問題。?

神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)其實(shí)在學(xué)習(xí)數(shù)據(jù)的分布,隨著網(wǎng)絡(luò)的深度增加、網(wǎng)絡(luò)復(fù)雜度增加,一般流經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)都是一個(gè) mini batch,每個(gè) mini batch 之間的數(shù)據(jù)分布變化非常劇烈,這就使得網(wǎng)絡(luò)參數(shù)頻繁的進(jìn)行大的調(diào)整以適應(yīng)流經(jīng)網(wǎng)絡(luò)的不同分布的數(shù)據(jù),給模型訓(xùn)練帶來非常大的不穩(wěn)定性,使得模型難以收斂。

如果我們對每一個(gè) mini batch 的數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化之后,強(qiáng)制使輸入分布保持穩(wěn)定,從而可以加快網(wǎng)絡(luò)的學(xué)習(xí)速度并提高模型的泛化能力。參數(shù)的梯度變化也變得穩(wěn)定,有助于加快模型的收斂。

機(jī)器學(xué)習(xí)中的正則化分為L1和L2正則化,sklearn庫中的Lasso類和Ridge類來實(shí)現(xiàn)L1正則化和L2正則化的線性回歸模型。通過調(diào)整alpha參數(shù),可以控制正則化的強(qiáng)度。

import numpy as np
from sklearn.linear_model import Lasso
from sklearn.datasets import make_regression
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error# 生成模擬數(shù)據(jù)集
X, y = make_regression(n_samples=100, n_features=2, noise=0.1)# 劃分訓(xùn)練集和測試集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 創(chuàng)建Lasso回歸模型,并設(shè)置alpha參數(shù)為0.1(正則化強(qiáng)度)
lasso = Lasso(alpha=0.1)# 擬合模型
lasso.fit(X_train, y_train)# 預(yù)測測試集數(shù)據(jù)
y_pred = lasso.predict(X_test)# 計(jì)算均方誤差
mse = mean_squared_error(y_test, y_pred)
print("Mean Squared Error:", mse)
  1. Ridge回歸模型,fit方法的作用是使用提供的輸入特征矩陣X_train和對應(yīng)的目標(biāo)值y_train來訓(xùn)練模型,即確定模型的權(quán)重參數(shù)。這個(gè)過程涉及到最小化一個(gè)包含L2正則化項(xiàng)的損失函數(shù),以找到最佳的參數(shù)值,使得模型在訓(xùn)練集上的表現(xiàn)最優(yōu),同時(shí)通過正則化避免過擬合。?
  2. 在模型擬合完成后,可以使用predict方法來進(jìn)行預(yù)測。這個(gè)方法將使用fit方法中學(xué)到的參數(shù)來對新的輸入數(shù)據(jù)X_test進(jìn)行預(yù)測,輸出預(yù)測結(jié)果y_pred。因此,fit方法本身并不直接產(chǎn)生預(yù)測結(jié)果,而是為后續(xù)的預(yù)測準(zhǔn)備了必要的模型參數(shù)。

批量歸一化公式?

  • λ 和 β 是可學(xué)習(xí)的參數(shù),它相當(dāng)于對標(biāo)準(zhǔn)化后的值做了一個(gè)線性變換,λ 為系數(shù),β 為偏置;
  • eps 通常指為 1e-5,避免分母為 0;
  • E(x) 表示變量的均值;
  • Var(x) 表示變量的方差;

通過批量歸一化(Batch Normalization, 簡稱 BN)層之后,數(shù)據(jù)的分布會被調(diào)整為均值為β,標(biāo)準(zhǔn)差為γ的分布。

批量歸一化通過對每個(gè)mini-batch數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理,強(qiáng)制使輸入分布保持穩(wěn)定:?

  1. 計(jì)算該批次數(shù)據(jù)的均值和方差:這兩個(gè)統(tǒng)計(jì)量是針對當(dāng)前批次數(shù)據(jù)進(jìn)行計(jì)算的。
  2. 利用這些統(tǒng)計(jì)數(shù)據(jù)對批次數(shù)據(jù)進(jìn)行歸一化處理:這一步將數(shù)據(jù)轉(zhuǎn)換為一個(gè)近似以0為中心,標(biāo)準(zhǔn)差為1的正態(tài)分布。
  3. 尺度變換和偏移:為了保持網(wǎng)絡(luò)的表達(dá)能力,通過可學(xué)習(xí)的參數(shù)γ(尺度因子)和β(平移因子)對歸一化后的數(shù)據(jù)進(jìn)行縮放和位移。

BN 層的接口?

torch.nn.BatchNorm2d(num_features, eps=1e-05, momentum=0.1, affine=True)

  • num_features: 這是輸入張量的特征數(shù)量,即通道數(shù)。它指定了要進(jìn)行歸一化的特征維度。

  • eps: 這是一個(gè)小的常數(shù),用于防止除以零的情況。默認(rèn)值為1e-05。

  • momentum: 這是動量值,用于計(jì)算移動平均值。默認(rèn)值為0.1。

  • affine: 這是一個(gè)布爾值,表示是否啟用可學(xué)習(xí)的縮放和位移參數(shù)。如果設(shè)置為True,則在訓(xùn)練過程中會學(xué)習(xí)這些參數(shù);如果設(shè)置為False,則使用固定的縮放和位移參數(shù)。默認(rèn)值為True。

我們通過一個(gè)代碼案例來理解一下工作原理 :

import torch
import torch.nn as nn# 定義輸入數(shù)據(jù)的形狀
batch_size = 32
num_channels = 3
height = 64
width = 64# 創(chuàng)建輸入張量
input_data = torch.randn(batch_size, num_channels, height, width)# 創(chuàng)建批量歸一化層
bn_layer = nn.BatchNorm2d(num_features=num_channels, eps=1e-05, momentum=0.1, affine=True)# 將輸入數(shù)據(jù)傳入批量歸一化層
output_data = bn_layer(input_data)# 打印輸出數(shù)據(jù)的形狀
print("Output shape:", output_data.shape)
http://aloenet.com.cn/news/39199.html

相關(guān)文章:

  • 網(wǎng)站怎么做搜索欄seo怎么學(xué)
  • 做網(wǎng)站一般哪里找長春網(wǎng)站建設(shè)解決方案
  • 微商怎么做網(wǎng)站鹽城seo培訓(xùn)
  • 網(wǎng)站建設(shè)的發(fā)票移動排名提升軟件
  • 中國建設(shè)教育協(xié)會官方網(wǎng)站查百度搜索指數(shù)入口
  • 做個(gè)商城網(wǎng)站要多少錢農(nóng)產(chǎn)品營銷方案
  • 中國企業(yè)500強(qiáng)厲害嗎電腦優(yōu)化軟件推薦
  • 免費(fèi)名字設(shè)計(jì)logo網(wǎng)站查網(wǎng)站
  • 做淘寶客網(wǎng)站要備案嗎營銷網(wǎng)站建設(shè)都是專業(yè)技術(shù)人員
  • 個(gè)人網(wǎng)站建設(shè)策劃書百度推廣后臺
  • 家裝業(yè)務(wù)員怎么做網(wǎng)站營銷網(wǎng)絡(luò)廣告有哪些形式
  • 嘉興營銷型網(wǎng)站上海網(wǎng)絡(luò)推廣優(yōu)化公司
  • 高端網(wǎng)站開發(fā)建設(shè)網(wǎng)站媒體推廣
  • 做數(shù)據(jù)網(wǎng)站手機(jī)百度如何發(fā)布作品
  • 怎么用自己電腦做網(wǎng)站服務(wù)器嗎企業(yè)網(wǎng)站設(shè)計(jì)與實(shí)現(xiàn)論文
  • avada做網(wǎng)站seo公司北京
  • 做啤酒行業(yè)的網(wǎng)站公司網(wǎng)站建設(shè)流程
  • 網(wǎng)站開發(fā)需求描述seo站
  • 怎么做網(wǎng)站在里面填字qq群推廣網(wǎng)站免費(fèi)
  • 怎樣做1個(gè)網(wǎng)站搜索引擎搜索器
  • 站長工具推薦代寫軟文
  • 做設(shè)計(jì)靈感的網(wǎng)站seo團(tuán)隊(duì)
  • 鄭州網(wǎng)站建設(shè)程序網(wǎng)站頁面禁止訪問
  • 公司的企業(yè)文化怎么寫微信搜一搜seo
  • 做的好的微信商城網(wǎng)站什么是seo推廣
  • 網(wǎng)站的后臺是開發(fā)做的八零云自助建站免費(fèi)建站平臺
  • 做網(wǎng)站python和php哪個(gè)好學(xué)百度推廣怎么弄
  • 深圳 汽車網(wǎng)站建設(shè)百度網(wǎng)站首頁提交入口
  • seo診斷服務(wù)優(yōu)化什么
  • 中國哪些網(wǎng)站做軟裝seo廠商