返回介绍

数学基础

统计学习

深度学习

工具

Scala

四十四、PEP [2021]

发布于 2023-07-17 23:38:25 字数 78696 浏览 0 评论 0 收藏 0

  1. 基于深度学习的推荐模型利用 embedding 技术将这些稀疏的 categorical feature 映射为实值的稠密向量,以抽取用户偏好和 item 特性。embedding table 可能包含大量的参数,并花费巨大的内存,因为总是有大量的原始特征。因此, embedding table 的存储成本最高。

    一个很好的例子是 YouTube Recommendation Systems 。它需要数以千万计的参数用于 YouTube video IDembedding 。考虑到当今服务提供商对即时推荐的需求不断增加, embedding table 的规模成为深度学习推荐模型的效率瓶颈。另一方面,具有 uniform emebdding size 的特征可能难以处理不同特征之间的异质性。例如,有些特征比较稀疏,分配太大的 embeddding size 很可能导致过拟合问题。因此,当所有特征的 embedding sizeuniform 时,推荐模型往往是次优的。

    现有的关于这个问题的工作可以分为两类:

    • 一些工作(《Model size reduction using frequency based double hashing for recommender systems》《Compositional embedding susing complementary partitions for memory-efficient recommendation systems》《Learning multi-granular quantized embeddings for large-vocab categorical features in recommender systems》)提出,一些密切相关的特征可以共享部分 embedding ,从而减少整个成本。
    • 另一些工作提出依靠人类设计的规则(《Mixed dimension embeddings with application to memory-efficient recommendation systems》)或神经结构搜索(《Neural input search for large scale recommendation models》《Automated embedding dimensionality search in streaming recommendations》《Differentiable neural input search for recommender systems》)为不同特征分配 size 灵活的 embedding

    尽管得到了 embedding size 减小的 embedding table ,但这些方法在推荐性能和计算成本这两个最受关注的方面仍然不能有好的表现。具体来说,这些方法要么获得较差的推荐性能、要么花费大量的时间和精力来获得合适的 embedding size

    在论文 《Learnable embedding sizes for recommender systems》 中,为了解决现有工作的局限性,作者提出了一个简单而有效的 pruning-based 框架,名为 Plug-in Embedding Pruning: PEP ,它可以插入各种 embedding-based 的推荐模型中。论文的方法采用了一种直接的方式:一次性裁剪那些不必要的 embedding 参数来减少参数数量。

    具体而言,PEP 引入了可学习的阈值,可以通过梯度下降与 emebdding 参数共同训练。请注意,阈值被用来自动确定每个参数的重要性。然后, embedding 向量中小于阈值的元素将被裁剪掉。然后,整个 embedding table 被裁剪,从而确保每个特征有一个合适的 embedding size 。也就是说, embedding size 是灵活的。在得到裁剪后的 embedding table 后,作者在彩票假说(Lottery Ticket Hypothesis: LTH )的启发下重新训练模型。彩票假说表明,与原始网络相比,子网络可以达到更高的准确性。基于灵活的 embedding sizeLTHPEP 可以降低 embedding 参数,同时保持甚至提高模型的推荐性能。

    最后,虽然推荐性能和参数数量之间总是存在 tradeoff ,但 PEP 只需运行一次就可以获得多个裁剪后的 embedding table 。换句话说,PEP 可以一次性生成多个memory-efficientembedding 矩阵,这可以很好地处理现实世界应用中对性能或内存效率的各种需求。

    PEP 至少训练两遍:第一遍用于裁剪、第二遍用于重训练。

    论文在三个公共基准数据集(Criteo, Avazu, MovieLens-1M )上进行了广泛的实验。结果表明,与 SOTAbaseline 相比,PEP 不仅可以达到最好的性能,而且可以减少 97% ~ 99% 的参数。进一步的研究表明,PEP 在计算上是相当高效的,只需要一些额外的时间进行 embedding size 的学习。此外,对所学到 embedding 的可视化和可解释性分析证实,PEP 可以捕获到特征的固有属性,这为未来的研究提供了启示。

  2. 相关工作:

    • Embedding 参数共享:这些方法的核心思想是使不同的特征通过参数共享来复用 embedding

      • 《Learning multi-granular quantized embeddings for large-vocab categorical features in recommender systems》 提出了 MGQE ,从共享的 small sizecentroid embeddings 中检索 embedding fragments ,然后通过拼接这些 fragments 生成 final embedding

      • 《Model size reduction using frequency based double hashing for recommender systems》 使用双哈希技巧 double-hash trick ,使低频特征共享一个小的 embedding-table ,同时减少哈希碰撞的可能性。

        即,对低频特征的 embedding space 分解为两个更小的 embedding space 从而缓解过拟合、降低模型规模。

      • 《Compositional embeddings using complementary partitions for memory-efficient recommendation systems》 试图通过组合多个较小的 embedding(称为 embedding fragments ),从一个小的 embedding table 中为每个 feature category 产生一个 unique embedding vector 。这种组合通常是通过 embedding fragments 之间的拼接、相加、或 element-wise 相乘来实现的。

      然而,这些方法有两个限制:

      • 首先,工程师需要精心设计参数共享比例,以平衡准确性和内存成本。
      • 其次,这些粗略的 embedding 共享策略不能找到 embedding table 中的冗余部分,因此它总是导致推荐性能的下降。

      在这项工作中,我们的方法通过从数据中学习,自动选择合适的 emebdding 用量。因此,工程师们可以不必为设计共享策略付出巨大努力,并且通过去除冗余参数和缓解过拟合问题来提高模型性能。

    • Embedding Size Selection:最近,一些方法提出了一种新的混合维度的 embedding table 的范式。具体来说,不同于给所有特征分配统一的 embedding size ,不同的特征可以有不同的 embedding size

      • MDE《Mixed dimension embeddings with application to memory-efficient recommendation systems》)提出了一个人为定义的规则,即一个特征的 embedding size 与它的popularity成正比。然而,这种基于规则的方法过于粗糙,无法处理那些低频但是重要的特征。此外,MDE 中存在大量的超参数,需要大量的超参数调优工作。

      • 其他一些工作依靠神经架构搜索 Neural Architecture Search: NAS 为不同的特征分配了自适应的 embedding size

        • NIS《Neural input search for large scale recommendation models》) 使用了一种基于强化学习的算法,从人类专家预先定义的候选集中搜索 embedding sizeNIS 采用一个控制器来为不同的 embedding size 生成概率分布。
        • NIS 的控制器被 DartsEmb《Autoemb: Automated embedding dimensionality search in streaming recommendations》)进一步扩展,将强化学习搜索算法替换为可微的搜索。
        • AutoDim《Memory-efficient embedding for recommendations》)以与 DartsEmb 相同的方式为不同的 feature field 分配不同的 embedding size ,而不是单个特征。
        • DNIS《Differentiable neural input search for recommender systems》)使候选 embedding size 是连续的,没有预定义的候选尺寸。

        然而,所有这些基于 NAS 的方法在搜索过程中需要极高的计算成本。即使是采用微分架构搜索算法的方法,其搜索成本仍然是无法承受的。此外,这些方法还需要在设计适当的搜索空间方面做出巨大努力。

        与这些工作不同的是,我们的 pruning-based 方法可以相当有效地进行训练,并且在确定 embedding size 的候选集时不需要任何人工努力。

44.1 模型

  1. 一般来说,深度学习推荐模型将各种原始特征(包括用户画像和 item 属性)作为输入,预测用户喜欢某个 item 的概率。具体而言,模型将用户画像和item 属性的组合(用x$ \mathbf{\vec x} $ 表示)作为其输入向量,其中x$ \mathbf{\vec x} $ 是所有field 的拼接:

    (50)x=[x1;x2;;xM]

    其中:M$ M $ 为 feature field 数量;xi$ \mathbf{\vec x}_i $ 为 feature representation(通常为 one-hot 向量); 为向量拼接。

    对于xi$ \mathbf{\vec x}_i $ , embedding-based 推荐模型为它生成对应的 embedding 向量:

    (51)vi=VixiRd

    其中:ViRni×d$ \mathbf V_i\in \mathbb R^{n_i\times d} $ 为第i$ i $ 个 feature fieldembedding 矩阵,ni$ n_i $ 为第i$ i $ 个 feature fieldunique 取值数量,d$ d $ 为 embedding size

    模型针对所有 feature fieldembedding 矩阵为:

    (52)V={V1,V2,,VM}

    模型的预测得分为:

    (53)y^=ϕ(x;V,Θ)

    其中:ϕ()$ \phi(\cdot) $ 为 prediction model (如 FM),Θ$ \Theta $ 为除了 embedding 矩阵以外的参数。

    为了学习模型的参数(包括 embedding 矩阵),我们需要优化如下的训练损失:

    (54)minL(V,Θ,D)

    其中:D={(x,y)}$ \mathcal D= \{(\mathbf{\vec x},y )\} $ 为数据集,y$ y $ 为 ground-truth labelL$ \mathcal L $ 为损失函数。

    通常而言,推荐任务中采用 logloss 损失函数:

    (55)L=1|D|j=1|D|(yjlogy^j+(1yj)log(1y^j))

    其中:|D|$ |\mathcal D| $ 表示训练集的样本总数。注意,为了简化讨论,这里忽略了正则化项。

  2. 通过裁剪实现可学习的 embedding size :如前所述,针对 memory-efficient embedding learning 的可行方案是为不同的特征 embeddingvi$ \mathbf{\vec v}_i $ 自动分配不同的 embedding sized~i$ \tilde d_i $ ,这就是我们的目标。然而,由于其离散性和极其庞大的优化空间,直接学习d~i$ \tilde d_i $ 是不可行的。为了解决这个问题,我们提出了一个新的想法,即在V$ \mathbf V $ 上强迫 column-wise sparsity ,这等于是缩小了 embedding size

    如下图所示,embeddingv1$ \mathbf{\vec v}_1 $ 的第一个值被裁剪并设置为零,导致在效果上等效于d~1=d11$ \tilde d_1 = d_1-1 $ 的 embedding size 。此外,一些不重要的 feature embedding ,如v3$ \mathbf{\vec v}_3 $ , 通过裁剪并设置所有的值为零从而被删除。因此,我们的方法可以大大减少 embedding 参数。请注意,稀疏矩阵存储技术可以帮助我们大大节省内存用量。

    如果某一列被裁剪为零,则意味着该维度不重要;如果某一行被裁剪为零,则意味着该 feature value 不重要。

    在这种情况下,我们将 embedding size 的选择问题转换为学习 embedding 矩阵V$ \mathbf V $ 的 column-wise sparsity 。为了达到这个目的,我们对V$ \mathbf V $ 设计了一个稀疏性约束:

    (56)minL(V,Θ,D),s.t.V0k

    其中:0$ \|\cdot\|_0 $ 表示 L0 范数(即,非零元素的数量);k$ k $ 为 parameter budget ,它是对 embedding 参数总数的约束。

    这里其实是 global sparsity,而不仅仅是 column-wise sparsity

    然而,由于 L0 范数约束的非凸性,上式的直接优化是 NP-hard 的。为了解决这个问题,人们研究了 L0 范数的凸松弛,即 L1 范数。尽管如此,这类凸松弛方法仍然面临着两个主要问题:

    • 首先,计算成本太高,尤其是当推荐模型有数百万个参数时。
    • 其次,参数预算k$ k $ 需要人类专家在全局水平上手动设置。考虑到不同特征对推荐有不同的重要性,这种操作显然是次优的。

    为了解决这两个问题,受软阈值重参数化的启发(《Soft threshold weight reparameterization for learnable sparsity》),我们直接优化V$ \mathbf V $ 的投影,并通过可学习的阈值自适应地裁剪V$ \mathbf V $ ,这些阈值可以通过梯度下降更新。V$ \mathbf V $ 的重新参数化可以表述如下:

    (57)V^=S(V,s)=sign(V)ReLU(|V|g(s))

    其中:

    • V^RN×d$ \hat{\mathbf V}\in \mathbb R^{N\times d} $ 为重参数化后的 embedding 矩阵。

    • S()$ \mathcal S(\cdot) $ 为裁剪函数,它是 element-wise 的,定义为:

      (58)S(z,s)=sign(z)×ReLU(|z|g(s))

      裁剪函数的物理意义为:

      • 如果z$ z $ 的绝对值较小(意味着接近零),使得|z|g(s)$ |z|\le g(s) $ ,那么裁剪之后的结果为零。
      • 如果z$ z $ 的绝对值较大,那么裁剪之后的结果近似为sign(z)×|z|=z$ \text{sign}(z)\times |z| = z $ 。为什么说是“近似”,因为z$ z $ 的值向零的方向移动了g(s)$ g(s) $ 个单位(被裁剪了)。

      其中:

      • s$ s $ 为可训练的裁剪参数 pruning parameter

      • 函数g()$ g(\cdot) $ 作为一个裁剪阈值,如 sigmoid 函数。根据《Soft threshold weight reparameterization for learnable sparsity》g()$ g(\cdot) $ 应该满足三个属性:

        (59)g(s)>0,limsg(s)=0,limsg(s)=GR+,s.t.0g(s)G,sRg(sinit)<1which reduce the updating speed of s at the initial pruning

        其中对于 unstructured sparsityg()$ g(\cdot) $ 采用 sigmoid 函数;对于 structured sparsityg()$ g(\cdot) $ 采用指数函数exp()$ \exp(\cdot) $ 。

      • sign()$ \text{sign}(\cdot) $ 为符号函数,它将正数转换为 1 、将负数转换为 -1、零保持不变。

    采用V^$ \hat{\mathbf V} $ 之后,优化问题被重新定义为:

    (60)minL(S(V,s),Θ,D)

    然后,可训练的裁剪参数s$ s $ 可以与推荐模型的参数一起通过标准的反向传播进行联合优化。具体而言,第t$ t $ 步V$ \mathbf V $ 的梯度下降更新方程为:

    (1)V(t+1)V(t)ηtS(V,s)L(S(V(t),s),D)VS(V,s)

    其中:ηt$ \eta_t $ 为t$ t $ 步的学习率,$ \odot $ 为 Hadamard 积。

    为了解决S()$ \mathcal S(\cdot) $ 不可微的问题,我们使用 sub-gradient 来重新表述更新方程如下:

    (2)V(t+1)V(t)ηtS(V,s)L(S(V(t),s),D)I{S(V(t),s)0}

    其中:I()$ \mathcal I(\cdot) $ 为示性函数,当满足条件为 true 时返回 1、否则返回 0

    然后,只要我们选择一个连续的函数g()$ g(\cdot) $ ,那么损失函数L(S(V(t),s),D)$ \mathcal L\left(\mathcal S\left(\mathbf V^{(t)},s\right),\mathcal D\right) $ 对于s$ s $ 来说是连续的。此外,L$ \mathcal L $ 相对于s$ s $ 的 sub-gradient 也可以用于s$ s $ 的梯度下降。

  3. 裁剪阈值g(s)$ g(s) $ 可以从训练数据中学习,以减少 embedding 矩阵中的参数用量。然而,为什么我们的 PEP 可以通过训练数据学习合适的g(s)$ g(s) $ 呢?我们推断,g(s)$ g(s) $ 中s$ s $ 的增加可以减少训练损失。换句话说,我们的 PEP 试图在优化过程中更新s$ s $ 以达到更低的训练损失。

    如下图所示,我们在 MovieLens-1MCriteo 数据集上绘制了 with/without PEPFM 的训练曲线,以证实我们的假设。可以看到:我们的 PEP 可以实现更低的训练损失。

  4. 用彩票假说重新训练:在将 embedding 矩阵V$ \mathbf V $ 裁剪到目标参数预算P$ \mathcal P $ 之后,我们可以创建一个二元裁剪掩码M{0,1}V$ \mathbf M\in \{0,1\}^{\mathbf V} $ ,从而决定哪个 embedding 参数应该保留或放弃。然后我们用裁剪后的 embedding table 重新训练模型。

    彩票假说 Lottery Ticket Hypothesis《The lottery ticket hypothesis: Finding sparse, trainable neural networks》)说明:随机初始化的稠密网络中的一个子网络可以与原始网络相匹配,当以相同的迭代次数进行隔离训练时。这个子网络被称为中奖票 winning ticket 。因此,我们不是随机地重新初始化权重,而是重新训练基础模型,同时将权重重新初始化为原来(但是被掩码后的)的权重MV0$ \mathbf M\odot \mathbf V_0 $ 。

    注意,重训练阶段有三种初始化方式:

    • 与第一轮训练独立的随机初始化。
    • 把第一轮训练采用的随机初始化共享到重训练阶段。
    • 把第一轮训练得到的训练好的权重作为重训练阶段的初始化。

    LTH 和本文采用的是第二种方式。

    注意,重训练阶段需要把被 maskedembedding element 固定为零,且在更新过程中不要更新梯度。

    为了验证重训练的有效性,我们对比了四种操作:

    • Without pruningbase model
    • Without retrain:经过裁剪之后的模型,但是没有重训练。
    • Winning ticket(random reinit):经过裁剪以及重训练之后的模型,但是重训练时采用与第一轮训练所独立的随机初始化。
    • Winning ticket(original init):经过裁剪以及重训练之后的模型,并且共享第一轮训练的初始化权重来随机初始化重训练,即我们的 PEP

    可以看到:

    • 在重训练时,与 random reinit 相比, original initwinning ticket 可以使训练过程更快,并获得更高的推荐准确性。这证明了我们设计的再训练的有效性。
    • random reinitwinning ticket 仍然优于未裁剪的模型。通过减少不太重要的特征的 embedding 参数,模型的性能可以从对那些过度参数化的 embedding 的降噪中受益。这可以解释为,当 embedding size 统一时,它很可能会对那些过度参数化的embedding 进行过拟合。
    • without retrainPEP 的性能会有一点下降,但它仍然优于原始模型。without retrain 和原始模型之间的 gap ,要比 with retrainwithout retrain 之间的 gap 更大。这些结果表明,PEP 主要受益于合适的 embedding size 选择。

    我们猜测重训练的好处:在搜索阶段,embedding 矩阵中不太重要的元素被逐渐裁剪,直到训练过程达到收敛。然而,在早期的训练阶段,当这些元素没有被裁剪时,它们可能对那些重要元素的梯度更新产生负面影响。这可能使这些重要元素的学习变得次优。因此,重训练步骤可以消除这种影响并提高性能。

  5. 细粒度裁剪:上述方程中的阈值参数s$ s $ 被设置为一个标量,每个维度都是相同的阈值。我们把这个版本命名为 global-wise pruning 。然而, embedding 向量vi$ \mathbf{\vec v}_i $ 中的不同维度可能有不同的重要性,而不同 field 的特征也可能有不同的重要性。因此,embedding 矩阵中的值需要不同的稀疏性预算,用全局阈值的裁剪可能不是最佳的。为了更好地处理V$ \mathbf V $ 中不同特征/维度之间的异质性,我们设计了以下不同粒度的阈值策略:

    • Dimension-Wise:阈值参数s$ s $ 被设定为一个向量sRd$ \mathbf{\vec s}\in \mathbb R^{d} $ 。一个 embedding 中的每个值都将被独立地裁剪,不同fieldembedding 共享相同的s$ \mathbf{\vec s} $ 。
    • Feature-Wise:阈值参数s$ s $ 被设定为一个向量sRN$ \mathbf{\vec s}\in \mathbb R^{N} $ 。一个 embedding 中的所有值采用相同的标量阈值,不同fieldembedding 采用不同的标量阈值。
    • Feature-Dimension-Wise:阈值参数s$ s $ 被设定为一个矩阵sRN×d$ \mathbf s\in \mathbb R^{N\times d} $ ,从而获得最细粒度的裁剪。

    注意,这里的阈值参数并不是人工调优的超参数,而是从数据中学习的可训练参数。

    如下图所示:

    • Feature-Dimension 粒度可以比其它粒度的 embedding 参数减少得更多,并且在 retrain 阶段获得了最好的性能。
    • Dimension 粒度的裁剪可以在较少的训练周期内达到可比的 AUC

  6. PEP 算法:

    • 输入:初始 embeddingV(0)$ \mathbf V^{(0)} $ 、base modelϕ$ \phi $ 、target parameter 规模P$ \mathcal P $ 、数据集D$ \mathcal D $

    • 输出:训练好的稀疏 embeddingV$ \mathbf V $

    • 算法步骤:

      • 迭代,直到满足P$ \mathcal P $ ,迭代步骤为:

        通过minL(S(V,s),Θ,D)$ \min \mathcal L(\mathcal S(\mathbf V,s),\Theta,\mathcal D) $ 来裁剪V$ \mathbf V $ 。

      • 获取二元 pruning maskM={0,1}V$ \mathbf M=\{0,1\}^{\mathbf V} $ 。

      • 将裁剪后的 embedding parameter 设置为初始值V(0)$ \mathbf V^{(0)} $ 。

      • 重训练从而最小化L(V(0)M,D)$ \mathcal L(\mathbf V^{(0)}\odot \mathbf M, \mathcal D) $ 。

44.2 实验

  1. 数据集:MovieLens-1M, Criteo, Avazu

    • MovieLens-1M:遵从 AutoInt,我们将评分在 1 or 2 的样本作为负样本、评分在 4 or 5 的样本作为正样本。评分为 3 的样本视为中性样本从而被移除。

    • Criteo :对于数值特征,我们使用 log 变换从而进行归一化:

      (3)z={log2(x),ifx>2x,else
    • Creteo/Avazu :频次低于 10 的特征被认为是 'unknown'

    • 所有样本被随机拆分为训练集、验证集、测试集,比例为 80%/10%/10%

  2. 评估指标:AUC, Logloss

  3. baseline

    • Uniform Embedding: UEuniform embedding size
    • MGQE:从共享的 small sizecentroid embeddings 中检索 embedding fragments ,然后通过拼接这些 fragments 生成 final embeddingMGQE 为不同 item 学习不同容量的 embedding 。该方法是 embedding-parameter-sharing 方法中的最强 baseline
    • Mixed Dimension Embedding: MDE:基于人工定义的规则,即一个特征的 embedding size 与它的popularity成正比。该方法是 SOTAhuman-rule-based 方法。
    • DartsEmbSOTANAS-based 方法,它允许特征自动在一个给定的搜索空间中搜索 embedding size

    我们没有比较 NIS,因为它没有开放源代码,并且它的基于深度学习的搜索方法在速度方面太慢。

    我们将 baseline 方法和我们的 PEP 应用到三种 feature-based 推荐模型上:FM, DeepFM, AutoInt

  4. 实现细节:

    • pruningre-training 阶段,遵从 AutoIntDeepFM,我们采用学习率为 0.001Adam 优化器。

    • 对于g(s)$ g(s) $ ,我们选择g(s)=11+exp(s)$ g(s) = \frac{1}{1+\exp(-s)} $ ,并且针对 MovieLens-1M, Criteo, Avazu 数据集分别将s$ s $ 初始化为 -15/-150/-150

    • PEP 的粒度设置为:

      • Criteo, Avazu 数据集上设置为 Dimension-wise 从而用于 PEP-2, PEP-3, PEP-4

        PEP-0, PEP-1, PEP-2, PEP-3, PEP-4 分别代表不同的稀疏度配置,根据 PEP 算法中不同的P$ \mathcal P $ 超参数而来。然而,它们具体的配置,论文并没有提到。根据论文实验的图表,大概猜测分别代表 0.05, 0.1, 0.2, 0.3, 0.4 这五个稀疏率。

      • 其它数据集上设置为 Feature Dimension-wise

    • 在裁剪之前,所有模型的 base embedding dimensiond$ d $ 被设置为 64

    • 在重训练阶段,我们根据训练期间验证集的损失,利用了早停技术。

    • 我们使用 PyTorch 来实现我们的方法,并在单块 12G 内存的 TITAN V GPU 上以 mini-batch size = 1024 进行训练。

    • baseline 方法的配置:

      • 对于 Uniform Embedding ,我们的 embedding size 搜索空间为:MovieLens-1M 数据集为 [8, 16, 32,64]CriteoAvazu 数据集为 [4, 8, 16] ,因为当d>16$ d\gt 16 $ 时模型效果下降。

      • 对于其他 baseline,我们首先调优超参数使得模型具有最高的推荐性能、或最高的参数缩减率。然后我们调优这些模型从而达到性能和参数缩减率之间的 tradeoff

        • MDE 的搜索空间:维度d$ d $ 从 [4, 8, 16, 32] 中搜索,blocks 数量K$ K $ 从 [8, 16] 中搜索,α$ \alpha $ 从 [0.1, 0.2, 0.3] 中搜索。
        • MGQE 的搜索空间:维度d$ d $ 从 [8, 16, 32] 中搜索,子空间数量D$ D $ 从 [4, 8, 16] 中搜索,中心点数量K$ K $ 从 [64, 128, 256, 512] 中搜索。
        • DartsEmb 搜索空间:三组候选的 embedding 空间:{1, 2, 8}{2, 4, 16}{4, 8, 32}
  5. 我们在 Figure 2, 3, 4 中展示了推荐性能和参数数量的曲线。由于推荐性能和参数数量之间存在 tradeoff ,曲线是由具有不同稀疏性要求的点组成的。可以看到:

    • 我们的方法大大减少了参数的数量。在所有的实验中,我们的 PEP 实现了最高的参数缩减率 ,特别是在相对较大的数据集(CriteoAvazu )中。具体而言,在 CriteoAvazu 数据集中,与最佳 baseline 相比,我们的 PEP-0 可以减少99.90% 的参数用量(量级从106$ 10^6 $ 到103$ 10^3 $ ,这非常重要)。

      embedding 矩阵的参数使用率如此之低,意味着只有数百个 embedding 是非零的。通过将不太重要的特征的 embedding 设置为零,我们的 PEP 可以打破现有方法中最小 embedding size1 的限制(我们的方法可以实现 embedding size = 0 )。我们后续对 MovieLens 数据集进行了更多的分析,以帮助我们理解为什么我们的方法可以实现如此有效的参数缩减。

    • 我们的方法实现了强大的推荐性能。我们的方法一直优于基于 uniform embedding 的模型,并在大多数情况下取得了比其他方法更好的准确性。具体而言,对于 Criteo 数据集上的 FM 模型,在 AUC 方面,PEPUE 相对提高了 0.59% 、比DartsEmb 相对提高了 0.24% 。从其他数据集和其他推荐模型的实验中也可以看到类似的改进。

      值得注意的是,我们的方法可以在极端的稀疏范围内保持强大的 AUC 性能。例如,当参数数量只有103$ 10^3 $ 量级时,PEP 推荐性能仍然明显优于线性回归模型。

  6. PEP 的效率分析:PEP 将导致额外的时间成本从而为不同的特征找到合适的 size 。这里我们研究了计算成本,并比较了 PEPDartsEmbCriteo 数据集上的每个训练 epoch 的运行时间。我们以相同的 batch size 实现这两个模型,并在同一平台上测试它们。

    这里的比较很有误导性。因为 PEP 需要重训练,也就是 training epoch 数量要翻倍。而这里仅仅比较单个 epoch 的训练时间,这是不公平的比较。

    下表中给出了三种不同模型的每个 epoch 的训练时间。可以看到:

    • 我们的 PEP 的额外计算成本只有 20% ~ 30% ,与基础模型相比,这是可以接受的。
    • DartsEmb 在其 bi-level 优化过程中需要将近两倍的计算时间来搜索一个好的 embedding size
    • 此外,DartsEmb 需要多次搜索以适应不同的内存预算,因为每次搜索都需要完全重新运行。与 DartsEmb 不同的是,我们的 PEP 只需一次运行就可以获得多个 embedding 方案,这些方案可以应用于不同的应用场景。因此,在现实世界的系统中,我们的 PEPembedding size 搜索方面的时间成本可以进一步降低。

  7. 对裁剪后的 embedding 进行可解释的分析:在这一节中,我们通过可视化的特征交互矩阵进行可解释的分析,该矩阵由VV$ \mathbf V\mathbf V^\top $ 来计算。矩阵中的每个值都是这两个 field feature 点积结果的绝对值的归一化平均值,其中越高表示这两个 field 有更强的相关性。可以看到:我们的 PEP 可以减少不重要的特征交互之间的参数数量,同时保持那些有意义的特征交互的重要性。通过对那些不太重要的特征交互进行降噪,PEP 可以减少 embedding 参数,同时保持或提高准确性。

    归一化怎么做的?

  8. 稀疏性和频次之间的相关性:如下图所示,不同特征之间的特征频次是高度多样化的。因此,使用统一的 embedding size 可能无法处理它们的异质性,这一特性在 embedding size 的选择上起着重要作用。因此,最近的一些工作显式利用特征频次。与他们不同的是,我们的 PEP 以端到端的自动方式缩减参数,从而规避了复杂的人工操作。然而,特征频次是决定一个特征是否重要的因素之一。因此,我们研究我们的方法是否能检测到频次的影响,以及学习到的 embedding size 是否与频次有关。

    • 我们首先分析训练期间的稀疏度轨迹,如下图 (b) 所示,不同的颜色表示根据popularity划分的不同的 feature group 。对于每一组,我们首先计算每个特征的稀疏度,然后计算所有特征上的平均值。图片中的阴影代表一个组内的方差。我们可以看到:PEP 倾向于给高频特征分配更大的 embedding size ,从而确保有足够的表达能力。而对于低频特征,其趋势则相反。

      这些结果符合这样的假设:高频特征应该有更多的 embedding 参数;而对于低频特征的 embedding ,几个参数就足够了。

    • 然后,我们探究了裁剪后的 embedding 的稀疏度和每个特征的频次之间的关系,如下图 (c) 所示。可以看到:

      • 大多数 relationship 与上述分析一致。

      • 一些低频特征被分配了较大的 embedding size ,而一些具有较大popularity的特征被分配了较小的 embedding size 。这说明:像以前的大多数工作那样简单地给高频特征分配更多的参数,并不能处理特征和它们的popularity之间的复杂联系。

        我们的方法是基于数据进行裁剪,这可以反映出特征的固有属性,从而可以以一种更优雅和有效的方式缩减参数。

  9. 线性回归( Linear Regression: LR )模型是一个无 embedding 的模型,只根据原始特征的线性组合进行预测。因此,值得将我们在极稀疏水平上的方法( PEP-0 )与 LR 进行比较,如下表所示。可以看到:

    • 我们的 PEP-0 在所有情况下都明显优于 LR 。这一结果证明,我们的 PEP-0 并不依赖 FMDeepFM 中的 LR 部分来保持强大的推荐性能。因此,即使在极其稀疏的情况下,我们的 PEP 在现实世界的场景中仍然具有很高的应用价值。
    • 值得注意的是,AutoInt 模型不包含 LR 组件,所以在 CriteoAvazu 数据集上 AutoIntPEP-0 导致了性能的大幅下降。我们尝试在 AutoIntPEP-0 中包含 LR ,并测试其性能。我们可以看到,在 CriteoAvazu 上的准确率超过了没有LRAutoInt 。这可以解释为 LR 帮助我们的 PEP-0 获得更稳定的性能。

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文