国产亚洲精品福利在线无卡一,国产精久久一区二区三区,亚洲精品无码国模,精品久久久久久无码专区不卡

當(dāng)前位置: 首頁(yè) > news >正文

設(shè)計(jì)網(wǎng)站推薦室內(nèi)排名優(yōu)化方案

設(shè)計(jì)網(wǎng)站推薦室內(nèi),排名優(yōu)化方案,網(wǎng)站制作教程設(shè)計(jì)院,企業(yè)方案損失函數(shù) 損失函數(shù)用真實(shí)值與預(yù)測(cè)值的距離指導(dǎo)模型的收斂方向,是網(wǎng)絡(luò)學(xué)習(xí)質(zhì)量的關(guān)鍵。不管是什么樣的網(wǎng)絡(luò)結(jié)構(gòu),如果使用的損失函數(shù)不正確,最終訓(xùn)練出的模型一定是不正確的。常見(jiàn)的兩類(lèi)損失函數(shù)為:①均值平方差②交叉熵 均值平方差 均值平方差(Mean Squared Error,MSE),也稱(chēng)&qu…

損失函數(shù)

? ? ? ? 損失函數(shù)用真實(shí)值與預(yù)測(cè)值的距離指導(dǎo)模型的收斂方向,是網(wǎng)絡(luò)學(xué)習(xí)質(zhì)量的關(guān)鍵。不管是什么樣的網(wǎng)絡(luò)結(jié)構(gòu),如果使用的損失函數(shù)不正確,最終訓(xùn)練出的模型一定是不正確的。常見(jiàn)的兩類(lèi)損失函數(shù)為:①均值平方差②交叉熵

均值平方差

? ? ? ? 均值平方差(Mean Squared Error,MSE),也稱(chēng)"均方誤差",在神經(jīng)網(wǎng)絡(luò)中主要用于表達(dá)預(yù)測(cè)值與真實(shí)值之間的差異,針對(duì)的是回歸問(wèn)題。其數(shù)學(xué)計(jì)算公式如下:

????????????????????????????????

? ? ? ? 可以看出,均值平方差是對(duì)每一個(gè)真實(shí)值與預(yù)測(cè)值相減后的差的平方取平均值。在具體模型中,它的值越小,表明模型越好。除此之外,類(lèi)似的損失算法還有均方根誤差RMSE(即將MSE開(kāi)平方)、平均絕對(duì)值誤差MAD(對(duì)一個(gè)真實(shí)值與預(yù)測(cè)值相減的絕對(duì)值取平均值)等。

? ? ? ? 注意 : 在神經(jīng)網(wǎng)絡(luò)計(jì)算時(shí),預(yù)測(cè)值要和真實(shí)值控制在同樣的數(shù)據(jù)分布內(nèi),例如將預(yù)測(cè)值經(jīng)過(guò)Sigmoid激活函數(shù)得到的值控制在0~1之間,那么真實(shí)值也需要?dú)w一化在0~1之間。這樣,進(jìn)行l(wèi)oss計(jì)算時(shí)才會(huì)有較好的效果。

? ? ? ? 在TensorFlow中,沒(méi)有提供單獨(dú)的MSE函數(shù)。由于公式簡(jiǎn)單,可以自己組合,例如:

MSE = tf.reduce_mean(tf.pow(tf.sub(logits,outputs),2.0))

? ? ? ? 其中,logits代表標(biāo)簽值,即真實(shí)值,outputs代表預(yù)測(cè)值。

? ? ? ? 同理,均方根誤差RMSE和平均絕對(duì)值誤差MAD也可以手動(dòng)組合,例如:

RMSE = tf.sqrt(tf.reduce_mean(tf.pow(tf.sub(logits,outputs),2.0)))
MAD = tf.reduce_mean(tf.complex_abs(tf.sub(logits,outputs)))

交叉熵

? ? ? ? 交叉熵(crossentropy),一般針對(duì)的是分類(lèi)問(wèn)題,主要用于預(yù)測(cè)輸入樣本屬于某一類(lèi)的概率。其數(shù)學(xué)計(jì)算公式如下:

????????????????????????

? ? ? ? 其中y代表真實(shí)值分類(lèi)(0或1),a代表預(yù)測(cè)值。

? ? ? ? 注意 : 用于計(jì)算的a也是通過(guò)分布統(tǒng)一化處理的(或者是經(jīng)過(guò)Sigmoid函數(shù)激活的),取值范圍在0~1之間。如果真實(shí)值和預(yù)測(cè)值都是1,前面一項(xiàng)y*ln(a)就是1*ln(1)等于0,后一項(xiàng)(1-y)*ln(1-a)也就是0*ln(0)等于0,loss為0,反之loss函數(shù)為其他數(shù)。

? ? ? ? 在TensorFlow中常見(jiàn)的交叉熵函數(shù)有:

? ? ? ? ? ? ? ? ①Sigmoid交叉熵

? ? ? ? ? ? ? ? ? ? ? ? Sigmoid交叉熵,即tf.nn.sigmoid_cross_entropy_with_logits(_sentinel = None,labels = None,logits = None,name = None),該函數(shù)對(duì)logits計(jì)算sigmoid的交叉熵。logits是神經(jīng)網(wǎng)絡(luò)模型中的w*x矩陣,也是神經(jīng)網(wǎng)絡(luò)最后一層的輸出,還沒(méi)有經(jīng)過(guò)sigmoid激活函數(shù)計(jì)算,而labels是實(shí)際的標(biāo)簽值,它的shape和logits相同。

? ? ? ? ? ? ? ? ? ? ? ? 具體計(jì)算公式如下:

????????????????

? ? ? ? ? ? ? ? ②softmax交叉熵

? ? ? ? ? ? ? ? ? ? ? ? softmax交叉熵,即tf.nn.softmax_cross_entropy_with_logits(logits,labels,name = None),該函數(shù)的參數(shù)logits和labels,與Sigmoid交叉熵函數(shù)的一樣。函數(shù)的計(jì)算過(guò)程一共分為兩步:

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ①將logits通過(guò)softmax計(jì)算轉(zhuǎn)換成概率,公式如下:

????????????????????????????????????????

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ②計(jì)算交叉熵?fù)p失,把softmax的輸出向量[y1,y2,y3...]和樣本的實(shí)際標(biāo)簽做一個(gè)交叉熵,公式如下:

????????????????????????????????????????

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? 其中,y'i指代實(shí)際的標(biāo)簽中第i個(gè)的值,yi是上一步softmax的輸出向量[y1,y2,y3...]中,第i個(gè)元素的值。非常明顯,預(yù)測(cè)越準(zhǔn)確,計(jì)算得出的值越小,最后再通過(guò)求平均值,得到最終的loss。注意:該函數(shù)的返回值是一個(gè)向量,不是一個(gè)數(shù)。

? ? ? ? ? ? ? ? ③sparse交叉熵

? ? ? ? ? ? ? ? ? ? ? ? sparse交叉熵,即tf.nn.sparse_softmax_cross_entropy_with_logits(logits,labels,name = None),該函數(shù)用于計(jì)算logits和labels之間的稀疏softmax交叉熵。計(jì)算流程和softmax交叉熵一樣,區(qū)別在于sparse交叉熵的樣本真實(shí)值與預(yù)測(cè)結(jié)果不需要one-hot編碼,但是要求分類(lèi)的個(gè)數(shù)一定要從0開(kāi)始。比如,如果分兩類(lèi),標(biāo)簽的預(yù)測(cè)值只有0和1兩個(gè)數(shù)。如果是五類(lèi),預(yù)測(cè)值有0,1,2,3,4共五個(gè)數(shù)。

? ? ? ? ? ? ? ? ④加權(quán)Sigmoid交叉熵

? ? ? ? ? ? ? ? ? ? ? ? 加權(quán)Sigmoid交叉熵,即tf.nn.weighted_cross_entropy_with_logits(targets,logits,pos_weight,name = None),該函數(shù)用于計(jì)算加權(quán)交叉熵。計(jì)算方式與Sigmoid交叉熵基本一樣,只是加上了權(quán)重的功能,是計(jì)算具有權(quán)重的Sigmoid交叉熵函數(shù)。

? ? ? ? ? ? ? ? ? ? ? ? 計(jì)算公式如下:

??

? ? ? ? ? ? ? ? ? ? ? ? 使用時(shí),直接調(diào)用對(duì)應(yīng)的API即可。

小結(jié)

? ? ? ? 在實(shí)際的模型訓(xùn)練過(guò)程中,損失函數(shù)的選取取決于輸入標(biāo)簽數(shù)據(jù)的類(lèi)型:如果輸入的是實(shí)數(shù)、無(wú)界的值,損失函數(shù)使用平方差;如果輸入標(biāo)簽是位矢量(分類(lèi)標(biāo)志),使用交叉熵會(huì)更合適。

http://aloenet.com.cn/news/46947.html

相關(guān)文章:

  • 寶塔 wordpress 404蘭州seo公司
  • 女性時(shí)尚網(wǎng)站模板鄒平縣seo網(wǎng)頁(yè)優(yōu)化外包
  • 廣東工程建設(shè)監(jiān)理有限公司網(wǎng)站石家莊關(guān)鍵詞優(yōu)化報(bào)價(jià)
  • 網(wǎng)站開(kāi)發(fā)的基本技術(shù)業(yè)務(wù)推廣方式有哪些
  • 網(wǎng)站開(kāi)發(fā)定制多少錢(qián)南京百度搜索優(yōu)化
  • 廣州城市建設(shè)網(wǎng)站宣傳推廣渠道有哪些
  • 商業(yè)廣告創(chuàng)意設(shè)計(jì)seo關(guān)鍵詞推廣怎么做
  • 全國(guó)企業(yè)信用信息平臺(tái)武漢整站優(yōu)化
  • 提供衡水網(wǎng)站建設(shè)深圳網(wǎng)站建設(shè)方案
  • 網(wǎng)頁(yè)版夢(mèng)幻西游周年慶攻略做專(zhuān)業(yè)搜索引擎優(yōu)化
  • web制作網(wǎng)站西安seo優(yōu)化公司
  • 網(wǎng)站建設(shè)費(fèi)開(kāi)票收候開(kāi)在哪個(gè)類(lèi)別里杭州seo公司哪家好
  • 有哪些網(wǎng)站用vue做的網(wǎng)絡(luò)推廣的公司是騙局嗎
  • 網(wǎng)站的建設(shè)費(fèi)用新聞今天最新消息
  • 網(wǎng)站開(kāi)發(fā)字體選擇鄭州網(wǎng)站優(yōu)化渠道
  • 上海做網(wǎng)站中國(guó)聯(lián)通和騰訊
  • php網(wǎng)站開(kāi)發(fā)案例論文搜狗seo刷排名軟件
  • 鄭州網(wǎng)站推廣公司排名武漢百度百科
  • 東莞公司網(wǎng)站策劃怎么建立網(wǎng)站
  • 赤峰網(wǎng)站建設(shè)培訓(xùn)app制作
  • 網(wǎng)站設(shè)計(jì)方案和技巧網(wǎng)絡(luò)暴力事件
  • 成都醫(yī)院做網(wǎng)站建設(shè)太原seo排名收費(fèi)
  • 日木女人做爰視頻網(wǎng)站淘寶搜索關(guān)鍵詞排名
  • 做網(wǎng)站的電腦最好的免費(fèi)建站網(wǎng)站
  • c#網(wǎng)站開(kāi)發(fā)案例源碼app如何推廣
  • 哪里做網(wǎng)站做得好網(wǎng)站怎么做優(yōu)化排名
  • 公司制作網(wǎng)站價(jià)格長(zhǎng)春最新發(fā)布信息
  • 定制型網(wǎng)站制作明細(xì)報(bào)價(jià)表百度應(yīng)用中心
  • 東坑網(wǎng)頁(yè)設(shè)計(jì)seo技巧
  • 做外貿(mào)要自己建網(wǎng)站嗎網(wǎng)頁(yè)免費(fèi)制作網(wǎng)站