Simplifying Graph Convolutional Networks
摘要
本文提出:1、去除层之间的非线性变换不影响分类的准确度。
2、分析得出每层是一个低通滤波器。
1、介绍
图 1. GCN 和SGC。 顶行:GCN 在 K 层中重复变换特征向量,然后对最终表示应用线性分类器。 底行:SGC 将整个过程简化为一个简单的特征传播步骤,然后是标准逻辑回归。
定义:
2.1 GCN
特征传播 是GCN与MLP的不同。在每一层的开始,每个节点 v~i~的特征 h~i~与其局部邻域中的特征向量进行平均:
S代表归一化、自环的邻接矩阵。
其中
此步骤沿着图的边缘局部平滑隐藏的表示,并最终鼓励本地连接的节点之间的类似预测。
特征变换和非线性过渡。GCN平滑的隐藏特征表示 被线性变换。K-th表示为:
分类器。GCN总的公式为:
2.2. SGC
GCN在每一层中,隐藏表示在一跳之外的邻居之间进行平均。这意味着在 k 层之后,节点从图中距离 k−hops 的所有节点获取特征信息
线性化。
简化后(SGC):
逻辑回归。SGC包含一个固定的特征提取/平滑成分:
优化细节。略。
3、谱域分析
SGC 对应于图谱域上的固定滤波器。,SGC 充当低通滤波器,在图形上产生平滑特征,附近的节点倾向于共享相似的表示和预测。
3.1. 1.图卷积的预备知识
图拉普拉斯
其中
图卷积可以通过拉普拉斯算子的 k 阶多项式来近似:
θ~i~代表系数。在这种情况下,滤波器系数对应于拉普拉斯特征值的多项式。也就是说
GCN采用k = 1,θ~0~ = 2θ and θ~1~ = −θ。GCN表示为:$\mathbf{g}\mathbf{x}=\theta(\mathbf{I}+\mathbf{D}^{-1/2}\mathbf{A}\mathbf{D}^{-1/2})\mathbf{x}.$使用**“重整化技巧”*使得
3.2. SGC和低通滤波
GCN 中导出的初始一阶切比雪夫滤波器对应于传播矩阵
因为归一化的拉普拉斯是
Cora 数据集上不同传播矩阵的特征(红色)和滤波器(蓝色)频谱系数
正如人们所观察到的,
为了解决与一阶切比雪夫滤波器相关的潜在数值问题,采用归一化技巧。增强归一化邻接矩阵
我们现在分析
定理1。让
定理1表明,加入自环γ > 0后,归一化图拉普拉斯算子的最大特征值变小(证明见补充材料)。
上图描述了与标准化邻接相关的过滤操作。S~adj~的谱域范围[0,2],因此 Sadj 的奇次幂在频率 λ~i~> 1 处产生负滤波器系数.