婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > pytorch交叉熵損失函數(shù)的weight參數(shù)的使用

pytorch交叉熵損失函數(shù)的weight參數(shù)的使用

熱門標簽:400電話辦理哪種 開封語音外呼系統(tǒng)代理商 地圖標注線上如何操作 應電話機器人打電話違法嗎 河北防封卡電銷卡 開封自動外呼系統(tǒng)怎么收費 手機網(wǎng)頁嵌入地圖標注位置 天津電話機器人公司 電銷機器人的風險

首先

必須將權(quán)重也轉(zhuǎn)為Tensor的cuda格式;

然后

將該class_weight作為交叉熵函數(shù)對應參數(shù)的輸入值。

class_weight = torch.FloatTensor([0.13859937, 0.5821059, 0.63871904, 2.30220396, 7.1588294, 0]).cuda()

補充:關(guān)于pytorch的CrossEntropyLoss的weight參數(shù)

首先這個weight參數(shù)比想象中的要考慮的多

你可以試試下面代碼

import torch
import torch.nn as nn
inputs = torch.FloatTensor([0,1,0,0,0,1])
outputs = torch.LongTensor([0,1])
inputs = inputs.view((1,3,2))
outputs = outputs.view((1,2))
weight_CE = torch.FloatTensor([1,1,1])
ce = nn.CrossEntropyLoss(ignore_index=255,weight=weight_CE)
loss = ce(inputs,outputs)
print(loss)
tensor(1.4803)

這里的手動計算是:

loss1 = 0 + ln(e0 + e0 + e0) = 1.098

loss2 = 0 + ln(e1 + e0 + e1) = 1.86

求平均 = (loss1 *1 + loss2 *1)/ 2 = 1.4803

加權(quán)呢?

import torch
import torch.nn as nn
inputs = torch.FloatTensor([0,1,0,0,0,1])
outputs = torch.LongTensor([0,1])
inputs = inputs.view((1,3,2))
outputs = outputs.view((1,2))
weight_CE = torch.FloatTensor([1,2,3])
ce = nn.CrossEntropyLoss(ignore_index=255,weight=weight_CE)
loss = ce(inputs,outputs)
print(loss)
tensor(1.6075)

手算發(fā)現(xiàn),并不是單純的那權(quán)重相乘:

loss1 = 0 + ln(e0 + e0 + e0) = 1.098

loss2 = 0 + ln(e1 + e0 + e1) = 1.86

求平均 = (loss1 * 1 + loss2 * 2)/ 2 = 2.4113

而是

loss1 = 0 + ln(e0 + e0 + e0) = 1.098

loss2 = 0 + ln(e1 + e0 + e1) = 1.86

求平均 = (loss1 *1 + loss2 *2) / 3 = 1.6075

發(fā)現(xiàn)了么,加權(quán)后,除以的是權(quán)重的和,不是數(shù)目的和。

我們再驗證一遍:

import torch
import torch.nn as nn
inputs = torch.FloatTensor([0,1,2,0,0,0,0,0,0,1,0,0.5])
outputs = torch.LongTensor([0,1,2,2])
inputs = inputs.view((1,3,4))
outputs = outputs.view((1,4))
weight_CE = torch.FloatTensor([1,2,3])
ce = nn.CrossEntropyLoss(weight=weight_CE)
# ce = nn.CrossEntropyLoss(ignore_index=255)
loss = ce(inputs,outputs)
print(loss)
tensor(1.5472)

手算:

loss1 = 0 + ln(e0 + e0 + e0) = 1.098

loss2 = 0 + ln(e1 + e0 + e1) = 1.86

loss3 = 0 + ln(e2 + e0 + e0) = 2.2395

loss4 = -0.5 + ln(e0.5 + e0 + e0) = 0.7943

求平均 = (loss1 * 1 + loss2 * 2+loss3 * 3+loss4 * 3) / 9 = 1.5472

可能有人對loss的CE計算過程有疑問,我這里細致寫寫交叉熵的計算過程,就拿最后一個例子的loss4的計算說明

以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • PyTorch的SoftMax交叉熵損失和梯度用法
  • pytorch中常用的損失函數(shù)用法說明
  • Pytorch十九種損失函數(shù)的使用詳解
  • pytorch中交叉熵損失(nn.CrossEntropyLoss())的計算過程詳解
  • Python機器學習pytorch交叉熵損失函數(shù)的深刻理解

標簽:成都 常州 山東 宿遷 駐馬店 六盤水 江蘇 蘭州

巨人網(wǎng)絡通訊聲明:本文標題《pytorch交叉熵損失函數(shù)的weight參數(shù)的使用》,本文關(guān)鍵詞  pytorch,交叉,熵,損失,函數(shù),;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡,涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《pytorch交叉熵損失函數(shù)的weight參數(shù)的使用》相關(guān)的同類信息!
  • 本頁收集關(guān)于pytorch交叉熵損失函數(shù)的weight參數(shù)的使用的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    主站蜘蛛池模板: 蚌埠市| 汤原县| 贵南县| 湄潭县| 施甸县| 广水市| 霞浦县| 明水县| 武山县| 嘉定区| 遂溪县| 曲沃县| 临泽县| 油尖旺区| 雷州市| 白玉县| 东至县| 富裕县| 普陀区| 临沂市| 柘荣县| 师宗县| 岳阳市| 建湖县| 峡江县| 德州市| 新泰市| 上高县| 富宁县| 五家渠市| 凤庆县| 文昌市| 柳林县| 南雄市| 青海省| 乐至县| 临沧市| 油尖旺区| 冕宁县| 华阴市| 明星|