数学基础
- 线性代数
- 概率论与随机过程
- 数值计算
- 蒙特卡洛方法与 MCMC 采样
- 机器学习方法概论
统计学习
深度学习
- 深度学习简介
- 深度前馈网络
- 反向传播算法
- 正则化
- 深度学习中的最优化问题
- 卷积神经网络
- CNN:图像分类
- 循环神经网络 RNN
- Transformer
- 一、Transformer [2017]
- 二、Universal Transformer [2018]
- 三、Transformer-XL [2019]
- 四、GPT1 [2018]
- 五、GPT2 [2019]
- 六、GPT3 [2020]
- 七、OPT [2022]
- 八、BERT [2018]
- 九、XLNet [2019]
- 十、RoBERTa [2019]
- 十一、ERNIE 1.0 [2019]
- 十二、ERNIE 2.0 [2019]
- 十三、ERNIE 3.0 [2021]
- 十四、ERNIE-Huawei [2019]
- 十五、MT-DNN [2019]
- 十六、BART [2019]
- 十七、mBART [2020]
- 十八、SpanBERT [2019]
- 十九、ALBERT [2019]
- 二十、UniLM [2019]
- 二十一、MASS [2019]
- 二十二、MacBERT [2019]
- 二十三、Fine-Tuning Language Models from Human Preferences [2019]
- 二十四 Learning to summarize from human feedback [2020]
- 二十五、InstructGPT [2022]
- 二十六、T5 [2020]
- 二十七、mT5 [2020]
- 二十八、ExT5 [2021]
- 二十九、Muppet [2021]
- 三十、Self-Attention with Relative Position Representations [2018]
- 三十一、USE [2018]
- 三十二、Sentence-BERT [2019]
- 三十三、SimCSE [2021]
- 三十四、BERT-Flow [2020]
- 三十五、BERT-Whitening [2021]
- 三十六、Comparing the Geometry of BERT, ELMo, and GPT-2 Embeddings [2019]
- 三十七、CERT [2020]
- 三十八、DeCLUTR [2020]
- 三十九、CLEAR [2020]
- 四十、ConSERT [2021]
- 四十一、Sentence-T5 [2021]
- 四十二、ULMFiT [2018]
- 四十三、Scaling Laws for Neural Language Models [2020]
- 四十四、Chinchilla [2022]
- 四十七、GLM-130B [2022]
- 四十八、GPT-NeoX-20B [2022]
- 四十九、Bloom [2022]
- 五十、PaLM [2022] (粗读)
- 五十一、PaLM2 [2023](粗读)
- 五十二、Self-Instruct [2022]
- 句子向量
- 词向量
- 传统CTR 预估模型
- CTR 预估模型
- 一、DSSM [2013]
- 二、FNN [2016]
- 三、PNN [2016]
- 四、DeepCrossing [2016]
- 五、Wide 和 Deep [2016]
- 六、DCN [2017]
- 七、DeepFM [2017]
- 八、NFM [2017]
- 九、AFM [2017]
- 十、xDeepFM [2018]
- 十一、ESMM [2018]
- 十二、DIN [2017]
- 十三、DIEN [2019]
- 十四、DSIN [2019]
- 十五、DICM [2017]
- 十六、DeepMCP [2019]
- 十七、MIMN [2019]
- 十八、DMR [2020]
- 十九、MiNet [2020]
- 二十、DSTN [2019]
- 二十一、BST [2019]
- 二十二、SIM [2020]
- 二十三、ESM2 [2019]
- 二十四、MV-DNN [2015]
- 二十五、CAN [2020]
- 二十六、AutoInt [2018]
- 二十七、Fi-GNN [2019]
- 二十八、FwFM [2018]
- 二十九、FM2 [2021]
- 三十、FiBiNET [2019]
- 三十一、AutoFIS [2020]
- 三十三、AFN [2020]
- 三十四、FGCNN [2019]
- 三十五、AutoCross [2019]
- 三十六、InterHAt [2020]
- 三十七、xDeepInt [2023]
- 三十九、AutoDis [2021]
- 四十、MDE [2020]
- 四十一、NIS [2020]
- 四十二、AutoEmb [2020]
- 四十三、AutoDim [2021]
- 四十四、PEP [2021]
- 四十五、DeepLight [2021]
- 图的表达
- 一、DeepWalk [2014]
- 二、LINE [2015]
- 三、GraRep [2015]
- 四、TADW [2015]
- 五、DNGR [2016]
- 六、Node2Vec [2016]
- 七、WALKLETS [2016]
- 八、SDNE [2016]
- 九、CANE [2017]
- 十、EOE [2017]
- 十一、metapath2vec [2017]
- 十二、GraphGAN [2018]
- 十三、struc2vec [2017]
- 十四、GraphWave [2018]
- 十五、NetMF [2017]
- 十六、NetSMF [2019]
- 十七、PTE [2015]
- 十八、HNE [2015]
- 十九、AANE [2017]
- 二十、LANE [2017]
- 二十一、MVE [2017]
- 二十二、PMNE [2017]
- 二十三、ANRL [2018]
- 二十四、DANE [2018]
- 二十五、HERec [2018]
- 二十六、GATNE [2019]
- 二十七、MNE [2018]
- 二十八、MVN2VEC [2018]
- 二十九、SNE [2018]
- 三十、ProNE [2019]
- Graph Embedding 综述
- 图神经网络
- 一、GNN [2009]
- 二、Spectral Networks 和 Deep Locally Connected Networks [2013]
- 三、Fast Localized Spectral Filtering On Graph [2016]
- 四、GCN [2016]
- 五、神经图指纹 [2015]
- 六、GGS-NN [2016]
- 七、PATCHY-SAN [2016]
- 八、GraphSAGE [2017]
- 九、GAT [2017]
- 十、R-GCN [2017]
- 十一、 AGCN [2018]
- 十二、FastGCN [2018]
- 十三、PinSage [2018]
- 十四、GCMC [2017]
- 十五、JK-Net [2018]
- 十六、PPNP [2018]
- 十七、VRGCN [2017]
- 十八、ClusterGCN [2019]
- 十九、LDS-GNN [2019]
- 二十、DIAL-GNN [2019]
- 二十一、HAN [2019]
- 二十二、HetGNN [2019]
- 二十三、HGT [2020]
- 二十四、GPT-GNN [2020]
- 二十五、Geom-GCN [2020]
- 二十六、Graph Network [2018]
- 二十七、GIN [2019]
- 二十八、MPNN [2017]
- 二十九、UniMP [2020]
- 三十、Correct and Smooth [2020]
- 三十一、LGCN [2018]
- 三十二、DGCNN [2018]
- 三十三、AS-GCN
- 三十四、DGI [2018]
- 三十五、DIFFPOLL [2018]
- 三十六、DCNN [2016]
- 三十七、IN [2016]
- 图神经网络 2
- 图神经网络 3
- 推荐算法(传统方法)
- 一、Tapestry [1992]
- 二、GroupLens [1994]
- 三、ItemBased CF [2001]
- 四、Amazon I-2-I CF [2003]
- 五、Slope One Rating-Based CF [2005]
- 六、Bipartite Network Projection [2007]
- 七、Implicit Feedback CF [2008]
- 八、PMF [2008]
- 九、SVD++ [2008]
- 十、MMMF 扩展 [2008]
- 十一、OCCF [2008]
- 十二、BPR [2009]
- 十三、MF for RS [2009]
- 十四、 Netflix BellKor Solution [2009]
- 推荐算法(神经网络方法 1)
- 一、MIND [2019](用于召回)
- 二、DNN For YouTube [2016]
- 三、Recommending What Video to Watch Next [2019]
- 四、ESAM [2020]
- 五、Facebook Embedding Based Retrieval [2020](用于检索)
- 六、Airbnb Search Ranking [2018]
- 七、MOBIUS [2019](用于召回)
- 八、TDM [2018](用于检索)
- 九、DR [2020](用于检索)
- 十、JTM [2019](用于检索)
- 十一、Pinterest Recommender System [2017]
- 十二、DLRM [2019]
- 十三、Applying Deep Learning To Airbnb Search [2018]
- 十四、Improving Deep Learning For Airbnb Search [2020]
- 十五、HOP-Rec [2018]
- 十六、NCF [2017]
- 十七、NGCF [2019]
- 十八、LightGCN [2020]
- 十九、Sampling-Bias-Corrected Neural Modeling [2019](检索)
- 二十、EGES [2018](Matching 阶段)
- 二十一、SDM [2019](Matching 阶段)
- 二十二、COLD [2020 ] (Pre-Ranking 模型)
- 二十三、ComiRec [2020](https://www.wenjiangs.com/doc/0b4e1736-ac78)
- 二十四、EdgeRec [2020]
- 二十五、DPSR [2020](检索)
- 二十六、PDN [2021](mathcing)
- 二十七、时空周期兴趣学习网络ST-PIL [2021]
- 推荐算法之序列推荐
- 一、FPMC [2010]
- 二、GRU4Rec [2015]
- 三、HRM [2015]
- 四、DREAM [2016]
- 五、Improved GRU4Rec [2016]
- 六、NARM [2017]
- 七、HRNN [2017]
- 八、RRN [2017]
- 九、Caser [2018]
- 十、p-RNN [2016]
- 十一、GRU4Rec Top-k Gains [2018]
- 十二、SASRec [2018]
- 十三、RUM [2018]
- 十四、SHAN [2018]
- 十五、Phased LSTM [2016]
- 十六、Time-LSTM [2017]
- 十七、STAMP [2018]
- 十八、Latent Cross [2018]
- 十九、CSRM [2019]
- 二十、SR-GNN [2019]
- 二十一、GC-SAN [2019]
- 二十二、BERT4Rec [2019]
- 二十三、MCPRN [2019]
- 二十四、RepeatNet [2019]
- 二十五、LINet(2019)
- 二十六、NextItNet [2019]
- 二十七、GCE-GNN [2020]
- 二十八、LESSR [2020]
- 二十九、HyperRec [2020]
- 三十、DHCN [2021]
- 三十一、TiSASRec [2020]
- 推荐算法(综述)
- 多任务学习
- 系统架构
- 实践方法论
- 深度强化学习 1
- 自动代码生成
工具
- CRF
- lightgbm
- xgboost
- scikit-learn
- spark
- numpy
- matplotlib
- pandas
- huggingface_transformer
- 一、Tokenizer
- 二、Datasets
- 三、Model
- 四、Trainer
- 五、Evaluator
- 六、Pipeline
- 七、Accelerate
- 八、Autoclass
- 九、应用
- 十、Gradio
Scala
- 环境搭建
- 基础知识
- 函数
- 类
- 样例类和模式匹配
- 测试和注解
- 集合 collection(一)
- 集合collection(二)
- 集成 Java
- 并发
四、隐单元
隐单元的设计是一个非常活跃的研究领域,并且目前还没有明确的指导性理论,难以决定何时采用何种类型的隐单元。
- 通常不能预先判断哪种类型的隐单元工作的最好,所以设计过程中需要反复试错,通过测试集评估其性能来选择合适的隐单元。
- 一般默认采用的隐单元是修正线性单元,但是仍然有许多其他类型的隐单元。
某些隐单元可能并不是在所有的输入上都是可微的。如:修正线性单元 $ MathJax-Element-234 $ 在 $ MathJax-Element-226 $ 处不可微,这使得在该点处梯度失效。
事实上梯度下降法对这些隐单元的表现仍然足够好,原因是:
神经网络的训练算法通常并不会达到代价函数的局部最小值,而仅仅是显著地降低代价函数的值即可。
因此实际上训练过程中一般无法到达代价函数梯度为零的点,所以代价函数取最小值时梯度未定义是可以接受的。
不可微的点通常只是在有限的、少数的点上不可微,在这些不可微的点通常左导数、右导数都存在。
神经网络训练的软件实现通常返回左导数或者右导数其中的一个,而不是报告导数未定义或者产生一个错误。
这是因为计算机计算 0 点的导数时,由于数值误差的影响实际上不可能计算到理论上 0 点的导数,而是一个微小的偏离:向左侧偏离就是左导数,向右侧偏离就是右导数。
大多数隐单元的工作都可以描述为下面三步:
接受输入向量 $ MathJax-Element-292 $ 。
计算仿射变换 $ MathJax-Element-228 $ 。
用非线性函数 $ MathJax-Element-263 $ 计算隐单元输出。
函数 $ MathJax-Element-263 $ 也称作激活函数,大多数隐单元的区别仅仅在于激活函数 $ MathJax-Element-263 $ 的形式不同。
神经网络的隐层由多个隐单元组成,隐层的输出为: $ MathJax-Element-817 $ 。
4.1 修正线性单元
修正线性单元采用激活函数 $ MathJax-Element-234 $ ,它和线性单元非常类似,区别在于:修正线性单元在左侧的定义域上输出为零。
优点:采用基于梯度的优化算法时,非常易于优化。
当修正线性单元处于激活状态时,导数为常数
1
;当修正线性单元处于非激活状态时,导数为常数0
。修正线性单元的二阶导数几乎处处为零。缺点:无法通过基于梯度的方法学习那些使得修正线性单元处于非激活状态的参数,因为此时梯度为零。
对于修正线性单元 $ MathJax-Element-235 $ ,初始化时可以将 $ MathJax-Element-236 $ 的所有元素设置成一个小的正值(如0.1),从而使得修正线性单元在初始时尽可能的对训练集中大多数输入呈现激活状态。
有许多修正线性单元的扩展存在,这些扩展保证了它们能在各个位置都保持非零的梯度。
大多数扩展的表现与修正线性单元相差无几,偶尔表现的更好。
修正线性单元的三个扩展:当 $ MathJax-Element-237 $ 时,使用一个非零的斜率 $ MathJax-Element-245 $ : $ MathJax-Element-239 $ 。
绝对值修正
absolute value rectification
: 使用 $ MathJax-Element-240 $ ,此时 $ MathJax-Element-241 $ 。渗透修正线性单元
leaky ReLU
:将 $ MathJax-Element-245 $ 固定成一个类似 0.01 的小值。参数化修正线性单元
parametric ReLU
:将 $ MathJax-Element-245 $ 作为学习的参数。此时 $ MathJax-Element-245 $ 是与训练集相关的。不同的训练集,学得的 $ MathJax-Element-245 $ 会不同。
4.2 maxout 单元
ReLU
单元及其扩展都基于一个原则:越接近线性,则模型越容易优化。采用更容易优化的线性,这种一般化的原则也适用于除了深度前馈网络之外的网络。
$ \mathbb G_1=\{z_1,z_2,\cdots,z_k\}\\ \mathbb G_2=\{z_{k+1},z_{k+2},\cdots,z_{2k}\}\\ \vdots\\ \mathbb G_i=\{z_{(i-1)k+1},z_{(i-1)k+2},\cdots,z_{ik}\}\\ \vdots $maxout
单元是修正线性单元的进一步扩展。maxout
单元并不是作用于 $ MathJax-Element-250 $ 的每个元素 $ MathJax-Element-247 $ ,而是将 $ MathJax-Element-250 $ 分成若干个小组,每个组有 $ MathJax-Element-299 $ 个元素:然后
$ g(\mathbf{\vec z})_i=\max_{z_j \in \mathbb G_i} z_j $maxout
单元对每个组输出其中最大值的元素:- 假设 $ MathJax-Element-250 $ 是 100维的, $ MathJax-Element-251 $ ,则 $ MathJax-Element-252 $ 为 5维的向量。
- 至于如何分组,则没有确定性的指导准则。
maxout
单元的 $ MathJax-Element-250 $ 通常是通过对输入 $ MathJax-Element-292 $ 执行多个仿射变换而来。设 $ MathJax-Element-892 $ ,
$ y_1=\max(\mathbf{\vec w}_{1,1}^T\cdot \mathbf{\vec x}+b_{1,1},\cdots,\mathbf{\vec w}_{1,k}^T\cdot \mathbf{\vec x}+b_{1,k})\\ \vdots\\ y_n=\max(\mathbf{\vec w}_{n,1}^T\cdot \mathbf{\vec x}+b_{n,1},\cdots,\mathbf{\vec w}_{n,k}^T\cdot \mathbf{\vec x}+b_{n,k})\\ $maxout
单元有 $ MathJax-Element-299 $ 个分组,输出为 $ MathJax-Element-297 $ :令
$ \mathbf W_1=\begin{bmatrix}\mathbf{\vec w}_{1,1}^T\\ \mathbf{\vec w}_{2,1}^T\\ \cdots\\ \mathbf{\vec w}_{n,1}^T\end{bmatrix}\quad\cdots \quad \mathbf W_k=\begin{bmatrix}\mathbf{\vec w}_{1,k}^T\\ \mathbf{\vec w}_{2,k}^T\\ \cdots\\ \mathbf{\vec w}_{n,k}^T\end{bmatrix}\quad \mathbf{\vec b}_1=\begin{bmatrix}b_{1,1}\\ b_{2,1}\\ \cdots\\ b_{n,1}\end{bmatrix}\quad\cdots \quad \mathbf{\vec b}_k=\begin{bmatrix}b_{1,k}\\ b_{2,k}\\ \cdots\\ b_{n,k}\end{bmatrix}\\ \mathbf{\vec y}=[y_1,y_2,\cdots,y_n]^T $则有: $ MathJax-Element-886 $ 。
maxout
单元的优点:接近线性,模型易于优化。
经过
maxout
层之后,输出维数降低到输入的 $ MathJax-Element-254 $ 。这意味着下一层的权重参数的数量降低到maxout
层的 $ MathJax-Element-254 $ 。由多个分组驱动,因此具有一些冗余度来抵抗遗忘灾难
catastrophic forgetting
。遗忘灾难指的是:网络忘记了如何执行它们过去已经训练了的任务。
在卷积神经网络中,
max pooling
层就是由maxout
单元组成。maxout
单元提供了一种方法来学习输入空间中的多维度线性分段函数。它可以学习具有 $ MathJax-Element-299 $ 段的线性分段的凸函数,因此
maxout
单元也可以视作学习激活函数本身。使用足够大的 $ MathJax-Element-299 $ ,
maxout
单元能够以任意程度逼近任何凸函数。- 特别的, $ MathJax-Element-257 $ 时的
maxout
单元组成的隐层可以学习实现传统激活函数的隐层相同的功能,包括:ReLU
函数、绝对值修正线性激活函数、leakly ReLU
函数、参数化ReLU
函数,也可以学习不同于这些函数的其他函数。 - 注意:
maxout
层的参数化与ReLU
层等等这些层不同(最典型的,maxout
层的输出向量的维数发生变化),因此即使maxout
层实现了ReLU
函数,其学习机制也不同。
- 特别的, $ MathJax-Element-257 $ 时的
4.3 sigmoid / tanh 单元
sigmoid
单元和tanh
单元:其激活函数分别为sigmoid
函数和tanh
函数。在引入修正线性单元之前,大多数神经网络使用
sigmoid
函数 $ MathJax-Element-258 $ ,或者双曲正切函数 $ MathJax-Element-259 $ 作为激活 函数。这两个激活函数密切相关,因为 $ MathJax-Element-260 $ 。与修正线性单元不同,
sigmoid
单元和tanh
单元在其大部分定义域内都饱和,仅仅当 $ MathJax-Element-261 $ 在 0 附近才有一个较高的梯度,这会使得基于梯度的学习变得非常困难。因此,现在不鼓励将这两种单元用作深度前馈网络中的隐单元。- 如果选择了一个合适的代价函数(如对数似然函数)来抵消了
sigmoid
的饱和性,则这两种单元可以用作输出单元(而不是隐单元)。 - 如果必须选用
sigmoid
激活函数时,tanh
激活函数通常表现更佳。因为tanh
函数在 0点附近近似于单位函数 $ MathJax-Element-264 $ 。
- 如果选择了一个合适的代价函数(如对数似然函数)来抵消了
sigmoid
激活函数在前馈网络之外的神经网络中更为常见。有一些网络不能使用修正线性单元,因此
sigmoid
激活函数是个更好的选择,尽管它存在饱和问题。- 循环神经网络:修正线性单元会产生信息爆炸的问题。
- 一些概率模型:要求输出在
0~1
之间。
4.4 其他隐单元
存在许多其他种类的隐单元,但它们并不常用。经常会有研究提出一些新的激活函数,它们是前述的标准激活函数的变体,并表示它们表现得非常好。
除非这些新的激活函数被明确地证明能够显著地改进时,才会发布这些激活函数。如果仅仅与现有的激活函数性能大致相当,则不会引起大家的兴趣。
隐单元的设计仍然是个活跃的研究领域,许多有效的隐单元类型仍有待挖掘。
线性隐单元:它完全没有激活函数 $ MathJax-Element-263 $ ,也可以认为是使用单位函数 $ MathJax-Element-264 $ 作为激活函数 。
如果网络的每一层都是由线性变换组成,则网络作为整体也是线性的。这会降低网络的表达能力,因此线性隐单元较少使用。
线性隐单元提供了一种减少网络中参数的数量的有效方法。
假设有一个隐层,它有 $ MathJax-Element-304 $ 个输入, $ MathJax-Element-279 $ 个输出,隐向量为 $ MathJax-Element-267 $ ,则 $ MathJax-Element-308 $ 为 $ MathJax-Element-269 $ 维的矩阵,需要 $ MathJax-Element-270 $ 个参数。
可以用两层来代替该层:第一层使用权重矩阵 $ MathJax-Element-271 $ ,且没有激活函数;第二层使用权重矩阵 $ MathJax-Element-272 $ ,且为常规激活函数。这对应了 $ MathJax-Element-308 $ 的因式分解: $ MathJax-Element-274 $ 。
假设第一层产生了 $ MathJax-Element-286 $ 个输出,则有:第一层的输入为 $ MathJax-Element-304 $ 个,输出为 $ MathJax-Element-286 $ 个;第二层的输入为 $ MathJax-Element-286 $ 个,输出为 $ MathJax-Element-279 $ 个。
整体参数为 $ MathJax-Element-280 $ 个。当 $ MathJax-Element-286 $ 很小时,可以满足 $ MathJax-Element-282 $ ,从而减少了参数。
事实上第一层的输出 $ MathJax-Element-283 $ 实际上对应着对输入 $ MathJax-Element-292 $ 的一个编码(或者称作降维):将 $ MathJax-Element-304 $ 维的向量压缩到 $ MathJax-Element-286 $ 维。如果 $ MathJax-Element-286 $ 非常小,则输入 $ MathJax-Element-292 $ 信息压缩的过程中会丢失大量的信息。
softmax
隐单元:激活函数为softmax
函数。softmax
单元既可以用作输出单元,也可以用作隐单元。softmax
单元可以很自然地表示具有 $ MathJax-Element-299 $ 个可能取值的离散型随机变量的概率分布,因此它也可以视作一种开关。
径向基函数隐单元:激活函数为径向基函数
$ h_i=\exp\left(-\frac{1}{\sigma_i^{2}}|| \mathbf W_{:,i}-\mathbf{\vec x}||^{2}\right) $RBF
:其中 $ MathJax-Element-291 $ 表示权重矩阵的第 $ MathJax-Element-306 $ 列。
径向基函数在 $ MathJax-Element-292 $ 接近 $ MathJax-Element-291 $ 时非常活跃,但是对于大部分 $ MathJax-Element-292 $ 该函数值都饱和到 0,因此难以优化。
softplus
隐单元:激活函数为softplus
函数: $ MathJax-Element-840 $ 。这种单元是修正线性单元的平滑版本。通常不鼓励使用
softplus
激活函数,而推荐使用修正线性单元。理论上softplus
函数处处可导,且它不完全饱和,所以人们希望它具有比修正线性单元更好的性能。但是根据经验来看,修正线性单元效果更好。硬双曲正切隐单元:激活函数为硬双曲正切函数: $ MathJax-Element-845 $ 。
它的形状和
tanh
以及修正线性单元类似,但是它是有界的且在 $ MathJax-Element-293 $ 点不可导。
4.5 激活函数对比
sigmoid
主要缺点:- 容易饱和从而使得梯度消失。当激活函数取值在接近0或者1时会饱和,此时梯度为近似为0。
- 函数输出不是零中心的。这会导致后续神经元的输出数值总是正数。
tanh
:- 优点:函数输出是零中心的。
- 缺点:容易饱和从而使得梯度消失。
tanh
激活函数几乎在所有场合都是优于sigmoid
激活函数的。但是有一种情况例外:如果要求函数输出是0~1
之间(比如表征某个概率),则二者之间必须用sigmoid
。relu
:优点:对随机梯度下降的收敛有巨大的加速作用,而且非常容易计算。
缺点:可能导致神经元死掉。
当一个很大的梯度流过
relu
神经元时,可能导致梯度更新到一种特别的状态:在这种状态下神经元无法被其他任何数据点再次激活。此后流过这个神经元的梯度将变成 0,该单元在训练过程中不可逆的死亡。如果学习率设置的过高,可能会发现网络中大量神经元都会死掉。整个训练过程中,这些神经元都不会被激活。
leaky relu
:为了解决relu
死亡神经元的问题的尝试,但是效果并不明显。
$ \max(\mathbf{\vec w}_1^T\cdot \mathbf{\vec x}+b_1,\mathbf{\vec w}_2^T\cdot \mathbf{\vec x}+b_2) $maxout
: 它是relu
和leaky relu
的一般性归纳,以单输出的两段为例:当分成两段且 $ MathJax-Element-294 $ 时,就退化为单输出的
relu
激活函数。maxout
单元拥有relu
单元的所有优点,而没有它的缺点。maxout
单元的缺点:对于 $ MathJax-Element-299 $ 段的
maxout
, 假设其输出为 $ MathJax-Element-304 $ 维的,输出为 $ MathJax-Element-297 $ ,则有: $ MathJax-Element-886 $ 。相对于
relu
单元 $ MathJax-Element-298 $ , 可以看到:maxout
单元的参数数量增加到 $ MathJax-Element-299 $ 倍。注意,前面提到:
maxout
下一层的权重参数的数量降低到maxout
层的 $ MathJax-Element-254 $ 。 而这里说明的是:maxout
单元本层的参数数量是relu
的 $ MathJax-Element-299 $ 倍。二者不矛盾。
在同一个网络中混合使用不同类型的激活函数非常少见,虽然没有什么根本性的问题来禁止这么做。
激活函数选取准则:
通常建议使用
relu
激活函数。注意设置好学习率,同时监控网络中死亡的神经元占比。
如果神经元死亡比例过高,则使用
leaky relu
或者maxout
激活函数。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论