xy−x∗y
2:测量列是否存在粗差(肖维涅舍弃判据)
肖维涅系数Cu(查表)
y
′
′
=
+
x
i
+
C
u
⋅
σ
y
y
=
a
+
x
i
y=a+bx_i
y=a+bxi
y
′
=
a
+
x
i
−
C
u
⋅
σ
y
y′=a+bxi−Cu⋅σy
最小二乘法优缺点
2:最佳配方逼近可在一个区间上比较均匀的逼近函数,方法简单易行,实效性大,应用广泛
3:正规方程阶数较高时,容易出现病态
8-5 逻辑回归
y
=
1
1
+
e
−
(
w
T
X
+
)
y=frac{1}{1+e^{-(w^TX+b)}}
y=1+e−(wTX+b)1
S形曲线,在中心点附近的增长速度快,在两段的增长速度慢
逻辑回归解决的问题——二分类(大于等于0.5的为正样本,小于0.5的为负样本)
F
(
x
)
=
{
1
,
Y
(
x
)
=
0.5
0
,
Y
(
x
)
<
0.5
F(x)=begin{cases} 1,&Y(x)>=0.5\ 0,&Y(x)<0.5 end{cases}
F(x)={1,0,Y(x)>=0.5Y(x)<0.5
代价函数:
o
t
(
Y
(
x
)
,
y
)
=
{
−
l
o
g
Y
(
x
)
,
y
=
1
−
l
o
g
(
1
−
Y
(
x
)
)
,
y
=
0
cost(Y(x),y)=begin{cases} –logY(x),&y=1\ –log(1-Y(x)),&y=0 end{cases}
cost(Y(x),y)={−logY(x),−log(1−Y(x)),y=1y=0
所有m个样本的代价累加并平均,可得最终的代价函数
o
t
=
1
m
cos
(
Y
(
x
)
⋅
y
)
cost=frac{1}{m}cos(Y(x)cdot y)
逻辑回归推导
8-6 降维
降维方法
主成分分析PCA
主要思想:把原有的n维特征映射为k维的正交特征(即,主成分)
第三个新坐标轴的选择:与第一个和第二个坐标轴均正交的平面中方差最大的
(以此类推)
线性判别分析LDA
监督学习的降维技术(数据集的每个样本有类别输出)——与PCA的不同
LDA和PCA的区别
2:LDA从类别标注切入,期望投影后不同类别之间的数据距离较大,同一类别的数据紧凑
LDA和PCA的异同点
同:
1:数据降维
异:
3:LDA选择分类性能最好的投影方向,PCA选择样本点投影具有最大方差的方向
原文地址:https://blog.csdn.net/m0_65787507/article/details/134529705
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.7code.cn/show_8183.html
如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱:suwngjj01@126.com进行投诉反馈,一经查实,立即删除!