返回介绍

数学基础

统计学习

深度学习

工具

Scala

二、Spectral Networks 和 Deep Locally Connected Networks [2013]

发布于 2023-07-17 23:38:24 字数 204881 浏览 0 评论 0 收藏 0

  1. 卷积神经网络 Convolutional Neural Networks: CNNs 在机器学习问题中非常成功,其中底层数据representation 的坐标具有网格结构grid structure (一维、二维、或三维的网格),并且在这些坐标中,这些待研究的数据相对于该网格具有平移相等translational equivariance 性或平移不变性 translational invariance。语音、图像、视频就是属于这一类问题的著名的例子。

    在常规网格上,CNN 能够利用多种结构来很好地协同工作,从而大大减少系统中的参数数量:

    • 平移结构 translation structure:它允许使用 filter 而不是通用的线性映射,从而实现权重共享weight sharing
    • 空间局部性:filter 的尺寸通常都远远小于输入信号的尺寸。
    • 多尺度:通过步长大于一的卷积或者池化操作来减少参数,并获得更大的感受野 receptive field

    然而在许多情况下,数据并不是网格结构,如社交网络数据,因此无法在其上应用标准的卷积网络。图 graph 提供了一个自然框架来泛化网格结构,并扩展了卷积的概念。在论文《Spectral Networks and Deep Locally Connected Networks on Graphs》中,作者将讨论在除了常规网格之外的图上构建深度神经网络。论文提出了两种不同的结构:

    • 基于空域的卷积构建Spatial Construction :通过将空间局部性和多尺度扩展到通用的图结构,并使用它们来定义局部连接和池化层,从而直接在原始图结构上执行卷积。
    • 基于谱域的卷积构建Spectral Construction :对图结构进行傅里叶变换之后,在谱域进行卷积。

    论文主要贡献如下:

    • 论文表明,从给定的图结构输入,可以获得参数为O(n)$ O(n) $ 的有效架构(n$ n $ 为输入节点总数),并且论文在低维的图数据集上进行了验证。
    • 论文介绍了一种使用O(1)$ O(1) $ 参数的结构,通过实验验证了该结构并讨论了它与图上的谐波分析问题harmonic analysis problem 的联系。

2.1 基础概念(读者补充)

2.1.1 拉普拉斯算子

  1. 散度定义:给定向量场F(x)$ \mathbf{\vec F}(\mathbf{\vec x}) $ ,设Σ$ \Sigma $ 为围绕某一点x$ \mathbf{\vec x} $ 的一个封闭曲面,dS$ dS $ 为曲面上的微元,n$ \mathbf{\vec n} $ 为该微元的法向量,则该曲面的通量为:

    ΦF(Σ)=ΣFndS

    Σ$ \Sigma $ 趋近于零时,即可得到x$ \mathbf{\vec x} $ 点的散度:

    divF(x)=F=F=i=1nFixi

    其中x=(x1,,xn),F=(F1,,Fn)$ \mathbf{\vec x} = (x_1,\cdots,x_n)^\top, \mathbf{\vec F} = (F_1,\cdots,F_n)^\top $ 。

    散度的物理意义为:在向量场中从周围汇聚到该点或者从该点流出的流量。

  2. 旋度定义:给定向量场F(x)$ \mathbf{\vec F}(\mathbf{\vec x}) $ ,设Γ$ \Gamma $ 为围绕某一点x$ \mathbf{\vec x} $ 的一个封闭曲线,dl$ dl $ 为曲线上的微元,τ$ {\vec \tau } $ 为该微元的切向量,则该曲线的环量为:

    ΘF(Γ)=ΓFτdl

    Γ$ \Gamma $ 趋近于零时,即可得到x$ \mathbf{\vec x} $ 点的旋度:

    curlF(x)=×F

    在三维空间中,上式等于:

    ×F=|ijkxyzFxFyFz|=(FzyFyz)i+(FxzFzx)j+(FyxFxy)k

    旋度的物理意义为:向量场对于某点附近的微元造成的旋转程度,其中:

    • 旋转的方向表示旋转轴,它与旋转方向满足右手定则。
    • 旋转的大小是环量与环面积之比。
  3. 拉普拉斯算子定义:给定函数f(x)$ f(\mathbf{\vec x}) $ ,其中x=(x1,,xn)$ \mathbf{\vec x} = (x_1,\cdots,x_n)^\top $ ,则梯度定义为:

    f=(fx1,fxn)

    梯度的物理意义为:函数值增长最快的方向。

    梯度的散度为拉普拉斯算子,记作:

    2f=f=i=1n2fxi2
    • 由于所有的梯度都朝着f$ f $ 极大值点汇聚、从f$ f $ 极小值点流出,因此拉普拉斯算子衡量了空间中每一点,该函数的梯度是倾向于流出还是流入。
    • 拉普拉斯算子也能够衡量函数的平滑度smoothness:函数值没有变化或者线性变化时,二阶导数为零;当函数值突变时,二阶导数非零。
  4. 图拉普拉斯矩阵:假设f(x)$ f(x) $ 为离散的一维函数,则一阶导数为一阶差分:

    f(x)=f(x)xf(x+1)f(x)

    二阶导数为二阶差分:

    2f=f(x)=2f(x)x2=f(x)f(x1)=[f(x+1)f(x)][f(x)f(x1)]=f(x+1)+f(x1)2f(x)

    一维函数其自由度可以理解为2,分别是 +1-1 两个方向。因此二阶导数等于函数在所有自由度上微扰之后获得的增益。

    推广到图结构G=(V,E)$ G=(V,E) $ ,其中节点数量为|V|$ |V| $ 。假设邻接矩阵为W$ \mathbf W $ ,并且任意两个节点之间存在边(即使不存在边则我们也可以假设存在一个wi,j=0$ w_{i,j} = 0 $ 的”虚拟“边 )。对于其中任意节点i$ i $ ,对其施加微扰之后该节点可以到达其它任意节点,因此图的自由度为|V|$ |V| $ 。

    fi$ f_i $ 为函数f()$ f(\cdot) $ 在节点i$ i $ 的值,定义f=(f1,f2,,f|V|)R|V|$ \mathbf{\vec f} = (f_1,f_2,\cdots,f_{|V|})^\top\in \mathbb R^{|V|} $ ,它表示函数f$ f $ 在图G=(V,E)$ G=(V,E) $ 上的取值。对于节点i$ i $ ,其扰动到节点j$ j $ 的增益时(fjfi)$ (f_j-f_i) $ ,不过这里通常写成负的形式,即(fifj)$ (f_i-f_j) $ 。考虑到边的权重,则增益为:wi,j(fifj)$ w_{i,j}(f_i-f_j) $ 。

    函数f()$ f(\cdot) $ 也可以视为定义在图上的信号 signal

    对于节点i$ i $ ,总的增益为拉普拉斯算子在节点i$ i $ 的值。即:

    (2f)i=j2fij2jwi,j(fifj)=(jwi,j)fijwi,jfj=(Df)i(Wf)i=((DW)f)i

    其中:D$ \mathbf D $ 为图的度矩阵degree matrix()i$ (\cdot)_i $ 表示该向量的第i$ i $ 个元素。

    考虑所有的节点,则有:

    2f=(DW)f

    定义拉普拉斯矩阵L=DW$ \mathbf L = \mathbf D - \mathbf W $ ,因此在图的拉普拉斯算子就是拉普拉斯矩阵。

    上述结果都是基于fi$ f_i $ 为标量推导,实际上当fi$ f_i $ 为向量时也成立。

  5. 假设图的节点数量为m$ m $ ,图的拉普拉斯矩阵LRm×m$ \mathbf L\in \mathbb R^{m\times m} $ 是一个半正定对称矩阵,它具有以下性质:

    • 对称矩阵一定有m$ m $ 个线性无关的特征向量。
    • 半正定矩阵的特征值一定是非负的。
    • 对称矩阵的特征向量相互正交,即:所有特征向量构成的矩阵为正交矩阵。

    因此有拉普拉斯矩阵的谱分解:

    Luk=λkuk

    其中uk$ \mathbf{\vec u}_k $ 为第k$ k $ 个特征向量,λk$ \lambda_k $ 为第k$ k $ 个特征值。

    解得:L=UΛU$ \mathbf L = \mathbf U \mathbf\Lambda \mathbf U^\top $ ,其中 :

    U=[u1,u2,,um]Rm×mΛ=[λ1000λ2000λm]

    U$ \mathbf U $ 每一列为特征向量构成的正交矩阵,Λ$ \mathbf\Lambda $ 为对应特征值构成的对角矩阵。

  6. 根据L=(DW)$ \mathbf L=(\mathbf D-\mathbf W) $ 的定义有:

    L[111]=0

    根据特征方程:Lu=λu$ \mathbf L\mathbf{\vec u} = \lambda \mathbf{\vec u} $ ,因此λ=0$ \lambda = 0 $ 是L$ \mathbf L $ 的一个特征值。由于半正定矩阵的特征值一定是非负的,因此λ=0$ \lambda =0 $ 是L$ \mathbf L $ 的最小特征值。

    L$ \mathbf L $ 对应的m$ m $ 维谱空间中,特征值λk$ \lambda_k $ 越小则表明拉普拉斯矩阵L$ \mathbf L $ 在λk$ \lambda_k $ 对应的基uk$ \mathbf{\vec u}_k $ 上的分量的信息越少,这意味着该分量是可以忽略的低频部分。其实图像压缩就是这个原理,把像素矩阵分解后,把小的特征值(低频部分)全部变成零。PCA 降维也是同样原理,把协方差矩阵特征分解后,取 top K 个特征值对应的特征向量作为新的特征空间。 如下图所示为包含 25 个节点的图,其L$ \mathbf L $ 对应的 25 维空间中,最大特征值、第12 大特征值、次小特征值(因为最小特征值为零,因此第24 大特征值就是次小的)对应特征向量uk$ \mathbf{\vec u}_k $ 的可视化。可以看到:特征值越大则对应特征向量的变化越剧烈,特征值越小则对应特征向量的变化越平缓。注意:最小特征值为零,并且对应的特征向量为全1 的向量(或者乘以常数倍),这意味着该特征向量在所有节点上取值相等(所以变化为零),即频率为零的分量。

2.1.2 卷积

  1. 给定函数f(x)$ f(x) $ , 其傅里叶变换为:

    f(x)=F(k)eikxdk

    其中F(k)=12πf(x)eikxdx$ F(k) = \frac{1}{2\pi}\int_{-\infty}^{\infty} f(x) e^{-ikx} dx $ 为傅里叶系数,即频率为k$ k $ 的振幅,eiwx$ e^{-iwx} $ 为傅里叶基 fouries basis

    可以证明:eikx$ e^{-ikx} $ 为拉普拉斯算子的特征函数。证明:

    2eikx=2eikxx2=k2eikx
  2. 如果将傅里叶变换推广到图上,则有类比:

    • 拉普拉斯算子对应于拉普拉斯矩阵L$ \mathbf L $ 。

    • 频率k$ k $ 对应于拉普拉斯矩阵的特征值λk$ \lambda_k $ 。

    • 傅里叶基eikx$ e^{-ikx} $ 对应于特征向量uk$ \mathbf{\vec u}_k $ 。

    • 傅里叶系数F(k)$ F(k) $ 对应于F(λk)$ F(\lambda_k) $ ,其中:

      F(λk)=f^k=fuk

      写成矩阵形式为:

      f^=Uf

      其中:

      • fRm$ \mathbf{\vec f} \in \mathbb R^{m} $ 为图上定义的一个m$ m $ 维的信号(空域信号),它由每个节点的特征fi$ f_i $ 组成。

      • f^$ \hat{\mathbf{\vec f}} $ 为图的傅里叶变换(谱域信号),它是在谱域上对应于不同特征值的振幅构成的向量。

        f^$ \hat{\mathbf{\vec f}} $ 其实就是f$ \mathbf{\vec f} $ 在由m$ m $ 个基向量{u1,,um}$ \left\{\mathbf{\vec u}_1,\cdots,\mathbf{\vec u}_m\right\} $ 所张成的谱空间中的坐标,f^i$ \hat f_i $ 就是f$ \mathbf{\vec f} $ 在基向量ui$ \mathbf{\vec u}_i $ 上的投影。

    • 传统的傅里叶逆变换F1(F(k))=f(x)=F(k)eikxdk$ \mathcal F^{-1}(F(k)) = f(x) = \int_{-\infty}^\infty F(k)e^{ikx} dk $ 对应于图结构:

      fi=k=1mf^kuk,i

      其中uk,i$ u_{k,i} $ 对应于特征向量uk$ \mathbf{\vec u}_k $ 的第i$ i $ 个分量。写成矩阵的形式为:

      f=Uf^
  3. 卷积定理:两个函数在时域的卷积等价于在频域的相乘。

    f(x)h(x)=F1(F(k)×H(k))=F(k)×H(k)eikxdkF(k)=12πf(x)eikxdxH(k)=12πh(x)eikxdx

    对应于图上有:

    fh=F1(f^h^)=U(K(Uf))=UKUf

    其中:$ \odot $ 为逐元素乘积,U$ \mathbf U $ 为拉普拉斯矩阵L$ \mathbf L $ 特征向量组成的矩阵(每一列为一个特征向量),K$ \mathbf K $ 为对角矩阵:

    K=[hu1000hu2000hum]

    这里将逐元素乘积转换为矩阵乘法。

  4. 图卷积神经网络的核心就是设计卷积核,从上式可知卷积核就是K$ \mathbf K $ 。我们可以直接令huk=θk$ \mathbf{\vec h}\cdot \mathbf{\vec u}_k = \theta_k $ ,然后学习卷积核:

    K=[θ1000θ2000θm]

    我们并不关心h$ \mathbf{\vec h} $ ,仅仅关心傅里叶变换之后的h^$ \hat{\mathbf{\vec h}} $ 。

2.2 空域构建 Spatial Construction

2.2.1 基本概念

  1. 在通用的图结构上针对 CNN 最直接的推广是考虑多尺度的、局部的感受野。为此,我们使用一个加权图G=(Ω,W)$ G = (\mathbf\Omega, \mathbf W) $ 来代替网格结构,其中Ω$ \mathbf\Omega $ 为大小为m$ m $ 的节点集合,WRm×m$ \mathbf W\in \mathbb R^{m\times m} $ 为对称、非负的权重矩阵(这里采用无向图)。

    这里的权重指的是图中边的权重,而不是神经网络的权重。

  2. 基于W$ \mathbf W $ 的局部性 locality:可以很容易地在图结构中推广局部性的概念。实际上,图中的权重决定了局部性的概念。例如,在W$ \mathbf W $ 上定义邻域的一种直接方法是设置阈值δ>0$ \delta\gt 0 $ ,并设置邻域为:

    Nδ(j)={iiΩ,Wi,j>δ}

    其中Nδ(j)$ \mathcal N_\delta(j) $ 为节点j$ j $ 的邻域节点集合。

    在执行卷积时,我们可以仅仅考虑将感受野限制在这些邻域上的 sparse filter ,从而获得局部连接的网络 locally connected network ,从而将卷积层的参数数量减少到O(S×m)$ O(S\times m) $ (而不是O(m2)$ O(m^2) $ ),其中S$ S $ 为平均邻域大小。

    每个节点需要S$ S $ 个参数,一共m$ m $ 个节点,所以参数数量是O(S×m)$ O(S\times m) $

  3. 图的多分辨率multiresolution分析:CNN 通过池化pooling 层和降采样subsampling层来减少feature map 的尺寸,在图结构上我们同样可以使用多尺度聚类multiscale clustering的方式来获得多尺度结构。在图结构上如何进行多尺度聚类仍然是个开发的研究领域,我们这里根据节点的邻域进行简单的聚类。

    图的邻域结构天然地代表了某种意义上的聚类。比如,社交网络的一阶邻域代表用户的直接好友圈子,以一阶邻域来聚类则代表了一个个的”小团体“。基于这些 ”小团体“ 进行聚类得到的高阶聚类可能包含了国家的信息,比如”中国人“被聚合在一个高阶聚类中,”美国人“被聚合在另一个高阶聚类中。

    下图给出了多尺度层次聚类的示意图(两层聚类)。原始的12个节点为灰色。第一层有6 个聚类,聚类中心为彩色节点,聚类以彩色块给出。第二层有3 个聚类,聚类以彩色椭圆给出。

2.2.2 深度局部连接网络 Deep Locally Connected Networks

  1. 空域构建spatial construction从图的多尺度聚类开始,并且我们考虑K$ K $ 个尺度scale 。定义第 0 个尺度表示原始图,即Ω0=Ω$ \mathbf\Omega_0 = \mathbf\Omega $ 。对于之后每个尺度的feature mapΩk$ \mathbf\Omega_k $ 是通过聚类算法将feature mapΩk1$ \mathbf\Omega_{k-1} $ 划分到dk$ d_k $ 个聚类而得到,其中d0$ d_0 $ 为原始图的节点数量m$ m $ ,k=1,2,,K$ k=1,2,\cdots,K $ 。

    Ωk$ \mathbf\Omega_k $ 包含dk$ d_k $ 个节点,这些节点是dk$ d_k $ 个聚类的聚类中心。

    Ωk1$ \mathbf\Omega_{k-1} $ 包含dk1$ d_{k-1} $ 个节点,第i$ i $ 个节点的邻域记做Nk,i$ \mathcal N_{k,i} $ 。定义Ωk1$ \mathbf\Omega_{k-1} $ 中全部邻域集合的集合为:

    Nk={Nk,1,,Nk,dk1}

    有了这些之后我们现在可以定义神经网络的第k$ k $ 层。不失一般性,我们假设输入信号是定义在Ω0$ \mathbf\Omega_0 $ 上的实值信号 real signal(即标量值) ,我们设第k$ k $ 层创建的 filter 数量为fk$ f_k $ (即输出通道数)。则第k$ k $ 层神经网络将fk1$ f_{k-1} $ 个dk1$ d_{k-1} $ 维的信号转换为fk$ f_k $ 个dk$ d_k $ 维的信号。

  2. 正式地,假设第k$ k $ 层神经网络的输入为:

    X(k)=[x1,1(k)x1,2(k)x1,fk1(k)x2,1(k)x2,2(k)x2,fk1(k)xdk1,1(k)xdk1,2(k)xdk1,fk1(k)]Rdk1×fk1

    其中:

    • X(k)$ \mathbf X^{(k)} $ 为第k$ k $ 层神经网络的输入 feature map
    • X(k)$ \mathbf X ^{(k)} $ 的第i$ i $ 行定义为xi,:(k)=(xi,1(k),,xi,fk1(k))Rfk1$ \mathbf {\vec x}^{(k)}_{i,:} = \left(x^{(k)}_{i,1},\cdots ,x^{(k)}_{i,f_{k-1}}\right)^\top\in \mathbb R^{f_{k-1}} $ 为Ωk1$ \mathbf\Omega_{k-1} $ 的第j$ j $ 个节点的 feature
    • X(k)$ \mathbf X^{(k)} $ 的第j$ j $ 列定义为x:,j(k)=(x1,j(k),,xdk1,j(k))Rdk1$ \mathbf{\vec x}_{:,j}^{(k)} = \left(x_{1,j}^{(k)},\cdots,x_{d_{k-1},j}^{(k)}\right)^\top\in \mathbb R^{d_{k-1}} $ 为第j$ j $ 个信号(一共fk1$ f_{k-1} $ 个)。

    则第k$ k $ 层神经网络的第j$ j $ 个输出信号定义为:

    x:,j(k+1)=L(k)h(j=1fk1Fj,j(k)x:,j(k)),j=1,2,,fk

    其中:

    • 信号的每一维度表示一个通道,因此fk1$ f_{k-1} $ 为输入通道数,fk$ f_k $ 为输出通道数。

    • Fj,j(k)x:,j(k)$ \mathbf F^{(k)}_{j^\prime,j} \mathbf{\vec x}_{:,j^\prime}^{(k)} $ 对第j$ j^\prime $ 个输入通道进行线性变换,变换矩阵为Fj,j(k)$ \mathbf F^{(k)}_{j^\prime,j} $ 。

      j=1fk1Fj,j(k)x:,j(k)$ \sum_{j^\prime=1}^{f_{k-1}} \mathbf F^{(k)}_{j^\prime,j} \mathbf{\vec x}_{:,j^\prime}^{(k)} $ 的物理意义为:第j$ j $ 个输出通道由所有输入通道的线性变换进行 sum 聚合而来。

    • Fj,j(k)Rdk1×dk1$ \mathbf F^{(k)}_{j^\prime,j} \in \mathbb R^{d_{k-1}\times d_{k-1}} $ 为一个稀疏矩阵(作为 filter),它表示应用于第j$ j^\prime $ 个输入通道、第j$ j $ 个输出通道的参数矩阵。

      Fj,j(k)$ \mathbf F^{(k)}_{j^\prime,j} $ 的非零项由Nk$ \mathcal N_k $ 来定义,即:

      Fj,j(k)(u,v)={θj,j(k)(u,v),vNk,u0,else

      即:当节点v$ v $ 不在节点u$ u $ 的邻域中时Fj,j(k)(u,v)$ F_{j^\prime,j}^{(k)}(u,v) $ 为零,由于对称性此时Fj,j(k)(v,u)$ F_{j^\prime,j}^{(k)}(v,u) $ 也为零。{θj,j(k)(u,v)}$ \left\{\theta_{j^\prime,j}^{(k)}(u,v)\right\} $ 为 filter 的待学习的参数。

      这意味着在线性投影时,节点u$ u $ 的输出仅依赖于其邻域节点Nk,u$ \mathcal N_{k,u} $ ,即局部性。

    • h()$ h(\cdot) $ 为非线性激活函数。

    • L(k)$ \mathbf L^{(k)} $ 为第k$ k $ 层的池化矩阵,矩阵的行表示聚类 cluster id,列表示节点id ,矩阵中的元素表示每个节点对应于聚类中心的权重:如果是均值池化则就是 1 除以聚类中的节点数,如果是最大池化则是每个聚类的最大值所在的节点。

      L(k)$ \mathbf L^{(k)} $ 用于将fk$ f_k $ 个dk1$ d_{k-1} $ 维的输出通道的信号池化为fk$ f_k $ 个dk$ d_k $ 维的信号。

      L(k)=node1node2node3nodedk11nodedk1cluster110000cluster201/2001clusterdk01/2010Rdk×dk1
  3. Ωk$ \mathbf\Omega_k $ 和Nk$ \mathcal N_k $ 的构建过程:

    • 初始化:W0=W$ \mathbf W_0 = \mathbf W $ 。

    • 根据对Wk$ \mathbf W_k $ 的ϵ-covering$ \epsilon\text{-covering} $ 得到Ωk$ \mathbf\Omega_k $ 。理论上也可以采取其它聚类算法。

    • 对于Ωk$ \mathbf\Omega_k $ ,其簇中心i,j$ i,j $ 之间的连接权重为两个簇之间的所有连接的权重之和:

      Ak(i,j)=sΩk(i)tΩk(j)Wk1(s,t)

      然后按行进行归一化:

      Wk=row-normalize(Ak)
    • 根据Wk$ \mathbf W_k $ 以及邻域阈值δ$ \delta $ 得到Nk$ \mathcal N_k $ 。

    如下图所示K=2$ K=2 $ 。

    • Ω0$ \mathbf\Omega_0 $ 表示第零层,它有 12 个节点(灰色),信号为一个通道(标量)。
    • Ω1$ \mathbf\Omega_1 $ 表示第一层,其输入为Ω0$ \mathbf\Omega_0 $ ,输出 6 个节点,输出信号四个通道(四个filter )。
    • Ω2$ \mathbf\Omega_2 $ 表示第二层,其输入为Ω1$ \mathbf \Omega_1 $ ,输出 3 个节点,输出信号六个通道(六个filter)。

    每一层卷积都降低了空间分辨率spatial resolution,但是增加了空间通道数。

  4. 假设Sk$ S_k $ 为Nk$ \mathcal N_k $ 中平均邻居数量,则第k$ k $ 层卷积的平均参数数量为:

    O(Sk×dk×fk×fk1)

    实际应用中我们可以使得Sk×dkαdk1$ S_k\times d_k\simeq \alpha d_{k-1} $ ,α$ \alpha $ 为一个升采样系数,通常为α(1,4)$ \alpha \in (1,4) $ 。

    为什么这么做?论文并未说明原因。

  5. 空域构建的实现非常朴素,其优点是不需要对图结构有很高的规整性假设 regularity assumption。缺点是无法在节点之间实现权重共享。

2.3 谱域构建 Spectral Construction

  1. 可以通过图拉普拉斯算子来探索图的全局结构,从而推广卷积算子。

  2. 假设构建一个K$ K $ 层的卷积神经网络,在第k$ k $ 层将输入的 feature mapX(k)Rdk1×fk1$ \mathbf X^{(k)}\in \mathbb R^{d_{k-1} \times f_{k-1}} $ 映射到X(k+1)Rdk1×fk$ \mathbf X^{(k+1)}\in \mathbb R^{d_{k-1} \times f_{k}} $ ,则第k$ k $ 层网络的第j$ j $ 个输出通道为:

    x:,j(k+1)=h(j=1fk1UKj,j(k)Ux:,j(k))

    其中:

    • x:,j(k)$ \mathbf{\vec x}^{(k)}_{:,j^\prime} $ 表示第j$ j^\prime $ 个输入信号,即X(k)$ \mathbf X^{(k)} $ 的第j$ j^\prime $ 列。

    • U$ \mathbf U $ 为拉普拉斯矩阵特征向量组成的矩阵(每一列表示一个特征向量)。

      实际应用中,通常仅仅使用拉普拉斯矩阵的最大D$ D $ 个特征向量,截断阈值D$ D $ 取决于图的固有规整性 regularity 以及图的节点数量。此时上式中的U$ \mathbf U $ 替换为UDRdk1×D$ \mathbf U_D\in \mathbb R^{d_{k-1}\times D} $ 。这可以减少参数和计算量,同时去除高频噪声。

    • Kj,j(k)Rdk1×dk1$ \mathbf K^{(k)}_{j^\prime,j}\in \mathbb R^{d_{k-1}\times d_{k-1}} $ 为第k$ k $ 层的、针对第j$ j^\prime $ 个输入通道、第j$ j $ 个输出通道的谱域 filter 。一般而言我们选择 filterKj,j(k)$ \mathbf K_{j^\prime,j}^{(k)} $ 为对角矩阵,因此第k$ k $ 层卷积层的参数数量为fk1×fk×dk1$ f_{k-1}\times f_k\times d_{k-1} $ 。

      我们将在后文看到如何将图的全局规整性和局部规整性结合起来,从而产生具有O(1)$ O(1) $ 参数的层,即模型参数的数量不依赖于输入节点数dk1$ d_{k-1} $ 。

    • h()$ h(\cdot) $ 为非线性激活函数。

  3. 谱域构建可能受到以下事实的影响:大多数图仅在频谱的 top (即高频部分)才具有有意义的特征向量。即使单个高频特征向量没有意义,一组高频特征向量也可能包含有意义的信息。

    然而,我们的构建方法可能无法访问这些有意义的信息,因为我们使用对角线形式的卷积核,在最高频率处它是对角线形式因此仅包含单个高频特征向量(而不是一组高频特征向量)。

  4. 傅里叶变换是线性变换,如何引入非线性目前还没有很好的办法。

    具体而言,当在空域执行非线性变换时,如何对应地在谱域执行前向传播和反向传播,目前还没有很好的办法,因此我们必须进行昂贵的U$ \mathbf U $ 和U$ \mathbf U^\top $ 矩阵乘法。

  5. 为了降低参数规模,一个简单朴素的方法是选择一个一维的排列 arrangement(这个排列的顺序是根据拉普拉斯特征值的排序得到)。此时第k$ k $ 层网络的每个 filterKj,j(k)$ \mathbf K_{j^\prime,j}^{(k)} $ 的对角线可以参数化为:

    diag(Kj,j(k))=K(k)αj,j(k)

    其中:K(k)Rdk1×qk$ \mathcal K^{(k)}\in \mathbb R^{d_{k-1}\times q_k} $ 为三次样条核函数,αj,j(k)Rqk$ \alpha^{(k)}_{j^\prime,j}\in \mathbb R^{q_k} $ 为qk$ q_k $ 个样条参数。

    假设采样步长正比于节点数量,即步长αdk1$ \alpha \sim d_{k-1} $ ,则qkdk1×1α=O(1)$ q_k\sim d_{k-1}\times \frac{1}{\alpha} = O(1) $ , 则谱域卷积的参数数量降低为:fk1×fk$ f_{k-1}\times f_k $ 。

2.4 实验

  1. 我们对 MNIST 数据集进行实验,其中MNIST 有两个变种。所有实验均使用 ReLU 激活函数以及最大池化。模型的损失函数为交叉熵,固定学习率为0.1 ,动量为 0.9

2.4.1 降采样 MNIST

  1. 我们将MNIST 原始的 28x28 的网格数据降采样到 400 个像素,这些像素仍然保留二维结构。由于采样的位置是随机的,因此采样后的图片无法使用标准的卷积操作。

    采样后的图片的示例,空洞表示随机移除的像素点。

    空域层次聚类的可视化,不同的颜色表示不同的簇,颜色种类表示簇的数量。图 a 表示k=1$ k=1 $ ,图 b 表示k=3$ k=3 $ 。可以看到:层次越高,簇的数量越少。

    谱域拉普拉斯特征向量的可视化(谱域特征向量每个元素就是对应于每个节点的取值)。图a 表示v2$ \mathbf{\vec v}_2 $ (对应于较小的特征值),图b 表示v20$ \mathbf{\vec v}_{20} $ (对应于较大的特征值)。可以看到:特征值越小的特征向量对应于低频部分(变化越缓慢,左图),特征值越大的部分对应于高频部分(变化越剧烈,右图)。

  2. 不同模型在 MNIST 上分类的结果如下。基准模型为最近邻模型 kNNFCN 表示带有 N 个输出的全连接层,LRFN 表示带有 N 个输出的空域卷积层,MPN 表示带有 N 个输出的最大池化层,SPN 是带有 N 个输出的谱域卷积层。

    • 基准模型 kNN (第一行)的分类性能比完整的(没有采样的)MNIST 数据集的 2.8% 分类误差率稍差。
    • 两层全连接神经网络(第二行)可以将测试误差降低到 1.8%
    • 两层空域图卷积神经网络(第三行的下面部分)效果最好,这表明空域卷积层核池化层可以有效的将信息汇聚到最终分类器中。
    • 谱域卷积神经网络表现稍差(第四行),但是它的参数数量最少。
    • 采用谱域平滑约束(选择top200$ 200 $ 个频率)的谱域卷积神经网络的效果优于常规的谱域卷积神经网络。

  3. 由于 MNIST 中的数字由笔画组成,因此具有局部性。空域卷积通过filterFj,j(k)$ \mathbf F^{(k)}_{j^\prime,j} $ 的定义从而很明确的满足这一约束,而谱域卷积则没有强制空间局部性。在谱域 filter 上添加平滑约束可以改善分类结果,因为 filter 被强制具有更好的空间局部性。

    • (a),(b) 表示同一块感受野在空域卷积的不同层次聚类中的结果。
    • (c),(d) 表示谱域卷积的两个拉普拉斯特征向量,可以看到结果并没有空间局部性。
    • (e),(f) 表示采用平滑约束的谱域卷积的两个拉普拉斯特征向量,可以看到结果有一定的空间局部性。

2.4.2 球面 MNIST

  1. 我们将MNIST 图片映射到一个球面上,构建方式为:

    • 首先从单位球面上随机采样 4096 个点S={s1,,s4096}$ \mathbb S =\{s_1,\cdots,s_{4096}\} $ 。
    • 然后考虑三维空间的一组正交基E=(e1,e2,e3)$ \mathbf E = (\mathbf{\vec e}_1,\mathbf{\vec e}_2,\mathbf{\vec e}_3) $ ,其中||e1||=1,||e2||=2,||e3||=3$ ||\mathbf{\vec e}_1|| = 1,||\mathbf{\vec e}_2||=2,||\mathbf{\vec e}_3||=3 $ ,以及一个随机方差算子Σ=(E+W)(E+W)$ \mathbf\Sigma = (\mathbf E + \mathbf W)^\top(\mathbf E + \mathbf W) $ ,其中W$ \mathbf W $ 是一个方差为σ2<1$ \sigma^2\lt 1 $ 的独立同部分的高斯分布的分布矩阵。
    • 对原始 MNIST 数据集的每张图片,我们采样一个随机方差Σi$ \Sigma_i $ 并考虑其主成分分析PCA 的一组基{u1,u2,u3}$ \{\mathbf{\vec u}_1,\mathbf{\vec u}_2,\mathbf{\vec u}_3 \} $ 。这组基定义了一个平面内的旋转。我们将图片按照这组基进行旋转并使用双三次插值将图片投影到S$ \mathbb S $ 上。

    由于数字 69 对于旋转是等价的,所以我们从数据集中移除了所有的 9

    下面给出了两个球面 MNIST 示例:

    下面给出了谱域构建的图拉普拉斯矩阵的两个特征向量的可视化。图a 表示v20$ \mathbf{\vec v}_{20} $ ,图b 表示v100$ \mathbf{\vec v_{100}} $ 。可以看到:特征值越小的特征向量对应于低频部分(左侧),特征值越大的部分对应于高频部分(右侧)。

  2. 首先考虑“温和”的旋转:σ2=0.2$ \sigma^2=0.2 $ ,结果如下表所示。

    • 基准的 kNN 模型的准确率比上一个实验(随机采样 MNIST )差得多。
    • 所有神经网络模型都比基准 KNN 有着显著改进。
    • 空域构建的卷积神经网络、谱域构建的卷积神经网络在比全连接神经网络的参数少得多的情况下,取得了相差无几的性能。

  3. 不同卷积神经网络学到的卷积核(即 filter )如下图所示。

    • (a),(b) 表示同一块感受野在空域卷积的不同层次聚类中的结果。
    • (c),(d) 表示谱域卷积的两个拉普拉斯特征向量,可以看到结果并没有空间局部性。
    • (e),(f) 表示采用平滑约束的谱域卷积的两个拉普拉斯特征向量,可以看到结果有一定的空间局部性。

  4. 最后我们考虑均匀旋转,此时{u1,u2,u3}$ \{\mathbf{\vec u}_1,\mathbf{\vec u}_2,\mathbf{\vec u}_3 \} $ 代表R3$ \mathbb R^3 $ 中的随机的一组基,此时所有的模型的效果都较差。这时需要模型有一个完全的旋转不变性,而不仅仅是平移不变性。

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文