本文介绍: 输入给定一个图或者超图,记作G=(V,E,W),V表示点集,E表示边集,W表示每条边的权重。由于L拉普拉斯算子一个半正定的矩阵,那么它可以被表示,其中是由特征值组成的对角矩阵对应每个顶点可能存在一个向量x这个x是原始信号,那么就是原始信号在谱域的表达,如果想把谱域中的信号在变回去,只要与U相乘就可以了。基于以上,对于卷积定义就能表示为把原始信号x和作为卷积核的信号y投影到谱域中做点积,然后在重新回来,这里利用卷积定理。然后再到这个式子,是因为gθ不再是自由参数了,而是受。

首先是卷积的谱方法

输入给定一个图或者超图,记作G=(V,E,W),V表示点集,E表示边集,W表示每条边的权重

由于L拉普拉斯算子一个半正定的矩阵,那么它可以L=ULambda U^T表示,其中U U^T=ILambda是由特征值组成的对角矩阵

对应每个顶点可能存在一个向量x,这个x是原始信号,那么hat{x}=U^Tx就是原始信号在谱域的表达,如果想把谱域中的信号hat{x}在变回去,只要与U相乘就可以了。

基于以上,对于卷积的定义就能表示为把原始信号x和作为卷积核的信号y投影到谱域中做点积,然后在重新回来,这里利用卷积定理

这个公式是怎么来的呢,主要是卷积核并不是在原始空间中,而是在谱域里面了,那么就不需要投影了,整个谱卷积就分三步:

  1. 把x投影到谱域中,U^Tx。
  2. 利用卷积核进行运算 g_theta U^x
  3. 最后回到原始空间中去Ug_theta U^x

然后再到这个式子,是因为gθ不再是自由参数了,而是受Lambda控制的,这样就降低了分解L的需求,降低了计算复杂度

空间方法

分三步:1、给定一个节点之后,找到它的邻居。2、给邻居顶个序。3、参数共享

随机行走:邻居要那么多节点啊,我懒得挑,随机选得了

GCN:每个节点把一阶邻居的特征变换聚合下就得了,基本没卷积,只是加权平均

注意力:把注意力当成卷积核

值得注意的是,谱方法只是空间方法的特例方法需要显示定义空间以及卷积核,而空间方法需要定义空间,只需要卷积核,空间可以是透明的。

原文地址:https://blog.csdn.net/m0_51576139/article/details/134809932

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任

如若转载,请注明出处:http://www.7code.cn/show_45452.html

如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱suwngjj01@126.com进行投诉反馈,一经查实,立即删除

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注