12. HUber损失
L
δ
=
{
1
2
(
−
^
)
2
∣
(
−
^
)
∣
<
δ
δ
(
−
^
)
−
1
2
δ
L_delta= begin{cases} frac{1}{2}(y_i–hat{y})^2& text{if} ~~|(y-hat{y})|<delta\ delta (y-hat{y})-frac{1}{2}delta& text{otherwise} end{cases}
Lδ={21(yi−y^)2δ(y−y^)−21δif ∣(y−y^)∣<δotherwise
Huber损失是二次和线性两个损失函数的组合。损失的行为由阈值的值来定义。对于超过阈值的损失值,损失是线性的,否则是二次的。
13. 对数余弦损失
Log Cosh Loss, Log–cosh计算误差的双曲余弦的对数:
L
g
(
t
)
=
∑
i
=
1
N
l
g
[
c
o
(
y
i
−
y
^
i
)
]
Logcosh(t)=sum_{i=1}^Nlog[cosh(y_i-hat{y}_i)]
Logcosh(t)=i=1∑Nlog[cosh(yi−y^i)]
这种损失在行为上非常接近Huber损失,因为它对于非常大的误差值具有线性行为,而对于小的损失值具有二次性行为。这里的好处是,您不必像Huber损失的情况那样决定阈值的值。
14. 分位数损失函数
Quantile Loss,分位数回归损失函数用于预测分位数。分位数是指示组中有多少值低于或高于特定阈值的值:
Q
u
t
i
l
L
o
=
∑
i
=
y
i
<
y
^
i
(
γ
−
1
)
∣
y
i
−
y
^
i
∣
+
∑
i
=
y
i
>
y
^
i
(
γ
)
∣
y
i
−
y
^
i
∣
QuantileLoss = sum_{i=y_i<hat{y}_i}(gamma-1)|y_i-hat{y}_i|+sum_{i=y_i>hat{y}_i}(gamma)|y_i-hat{y}_i|
QuantileLoss=i=yi<y^i∑(γ−1)∣yi−y^i∣+i=yi>y^i∑(γ)∣yi−y^i∣
这里,
γ
γ表示所需的分位数。分位数是根据我们希望如何平衡正误差和负误差来选择的。
15. 后验极大似然损失函数
后验极大似然(PML)损失函数的具体公式是通过最大化参数的后验概率密度函数来估计参数值,而不是最大化似然函数。在贝叶斯统计中,可以表示为:
L
(
θ
)
=
a
g
a
P
(
θ
∣
D
)
其中,L(θ)是损失函数,θ是参数,P(θ|D)是给定观测数据D条件下参数θ的后验概率密度函数。
P
(
θ
∣
D
)
=
P
(
D
∣
θ
)
∗
P
(
θ
)
/
P
(
D
)
P(theta|D) = P(D|theta) * P(theta) / P(D)
P(θ∣D)=P(D∣θ)∗P(θ)/P(D)
其中,P(D|θ)是给定参数θ的似然函数,P(θ)是参数θ的先验分布,P(D)是数据的边缘概率。
最大化后验概率密度函数等价于最大化条件似然函数 P(D|θ) * P(θ),即:
L
(
θ
)
=
a
r
g
a
P
(
D
∣
θ
)
∗
P
(
θ
)
L(theta) = argmax P(D|theta) * P(theta)
L(θ)=argmaxP(D∣θ)∗P(θ)
后验极大似然损失函数的具体形式和计算方法取决于所选择的先验分布和问题的特定情况。因此,公式中涉及的概率分布和参数估计方法会根据具体问题的需求而有所不同。
16. 泊松损失
Poisson Loss, 它基于泊松分布的概率密度函数和模型预测的平均计数之间的差异。泊松损失(Poisson Loss)适用于计数数据的预测。泊松损失基于泊松分布的概率密度函数和模型预测的平均计数之间的差异来衡量模型的拟合程度:
o
i
s
o
(
P
,
T
)
=
1
N
∑
i
=
1
N
(
P
i
−
T
i
l
o
g
(
P
i
)
)
poisson(P,T)= frac{1}{N} sum_{i=1}^N(P_i −T_i log(P_i ))
poisson(P,T)=N1i=1∑N(Pi−Tilog(Pi))
参考文章:
https://medium.com/@mlblogging.k/14-loss–functions-you-can-use–for-regression-b24db8dff987
原文地址:https://blog.csdn.net/qq_28531269/article/details/134799316
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.7code.cn/show_44218.html
如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱:suwngjj01@126.com进行投诉反馈,一经查实,立即删除!