本文介绍: 如果我们在做多分类任务,有些类比较重要,有些类不太重要,想要模型更加关注重要的类别,那么只需将比较重要的类所对应的w权重设置大一点,不太重要的类所对应的w权重设置小一点。其中pos_weight对应上式公式中的p_c,这个参数是为了调节正负样本不均衡问题的,如果正负样本比是10:1,那么我们可以将p_c设置为1/10来平衡正负样本。上式是nn.BCEWithLogitsLoss损失函数的计算公式,其中w_n对应weight参数。
nn.BCEWithLogitsLoss中weight参数和pos_weight参数的作用及用法
weight参数
上式是nn.BCEWithLogitsLoss损失函数的计算公式,其中w_n对应weight参数。
如果我们在做多分类任务,有些类比较重要,有些类不太重要,想要模型更加关注重要的类别,那么只需将比较重要的类所对应的w权重设置大一点,不太重要的类所对应的w权重设置小一点。
下面是一个代码演示:
import torch
import torch.nn as nn
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
a = torch.tensor([[1.0, 2.0],[1.0,2.0]])
m = nn.Sigmoid()
b = torch.Tensor([[0, 1],[0,1]])
loss_function = nn.BCEWithLogitsLoss()
loss_function1 = nn.BCEWithLogitsLoss(weight=torch.tensor([0, 1.0]))
loss_function2 = nn.BCEWithLogitsLoss(weight=torch.tensor([1.0, 0]))
loss_function3 = nn.BCEWithLogitsLoss(weight=torch.tensor([1.0, 1.0]))
loss_function4 = nn.BCEWithLogitsLoss(weight=torch.tensor([1.0, 2.0]))
loss = loss_function(a, b)
loss1 = loss_function1(a, b)
loss2 = loss_function2(a, b)
loss3 = loss_function3(a, b)
loss4 = loss_function4(a, b)
print(loss, loss1, loss2, loss3, loss4)
运行结果:
其中[1.0, 2.0]经过sigmoid层之后的值是[0.7311,0.8808]
对于loss的计算过程如下所示:
pos_weight参数
其中pos_weight对应上式公式中的p_c,这个参数是为了调节正负样本不均衡问题的,如果正负样本比是10:1,那么我们可以将p_c设置为1/10来平衡正负样本。
原文地址:https://blog.csdn.net/Zuobf_bk/article/details/135550345
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.7code.cn/show_56502.html
如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱:suwngjj01@126.com进行投诉反馈,一经查实,立即删除!
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。