数学基础
- 线性代数
- 概率论与随机过程
- 数值计算
- 蒙特卡洛方法与 MCMC 采样
- 机器学习方法概论
统计学习
深度学习
- 深度学习简介
- 深度前馈网络
- 反向传播算法
- 正则化
- 深度学习中的最优化问题
- 卷积神经网络
- CNN:图像分类
- 循环神经网络 RNN
- Transformer
- 一、Transformer [2017]
- 二、Universal Transformer [2018]
- 三、Transformer-XL [2019]
- 四、GPT1 [2018]
- 五、GPT2 [2019]
- 六、GPT3 [2020]
- 七、OPT [2022]
- 八、BERT [2018]
- 九、XLNet [2019]
- 十、RoBERTa [2019]
- 十一、ERNIE 1.0 [2019]
- 十二、ERNIE 2.0 [2019]
- 十三、ERNIE 3.0 [2021]
- 十四、ERNIE-Huawei [2019]
- 十五、MT-DNN [2019]
- 十六、BART [2019]
- 十七、mBART [2020]
- 十八、SpanBERT [2019]
- 十九、ALBERT [2019]
- 二十、UniLM [2019]
- 二十一、MASS [2019]
- 二十二、MacBERT [2019]
- 二十三、Fine-Tuning Language Models from Human Preferences [2019]
- 二十四 Learning to summarize from human feedback [2020]
- 二十五、InstructGPT [2022]
- 二十六、T5 [2020]
- 二十七、mT5 [2020]
- 二十八、ExT5 [2021]
- 二十九、Muppet [2021]
- 三十、Self-Attention with Relative Position Representations [2018]
- 三十一、USE [2018]
- 三十二、Sentence-BERT [2019]
- 三十三、SimCSE [2021]
- 三十四、BERT-Flow [2020]
- 三十五、BERT-Whitening [2021]
- 三十六、Comparing the Geometry of BERT, ELMo, and GPT-2 Embeddings [2019]
- 三十七、CERT [2020]
- 三十八、DeCLUTR [2020]
- 三十九、CLEAR [2020]
- 四十、ConSERT [2021]
- 四十一、Sentence-T5 [2021]
- 四十二、ULMFiT [2018]
- 四十三、Scaling Laws for Neural Language Models [2020]
- 四十四、Chinchilla [2022]
- 四十七、GLM-130B [2022]
- 四十八、GPT-NeoX-20B [2022]
- 四十九、Bloom [2022]
- 五十、PaLM [2022] (粗读)
- 五十一、PaLM2 [2023](粗读)
- 五十二、Self-Instruct [2022]
- 句子向量
- 词向量
- 传统CTR 预估模型
- CTR 预估模型
- 一、DSSM [2013]
- 二、FNN [2016]
- 三、PNN [2016]
- 四、DeepCrossing [2016]
- 五、Wide 和 Deep [2016]
- 六、DCN [2017]
- 七、DeepFM [2017]
- 八、NFM [2017]
- 九、AFM [2017]
- 十、xDeepFM [2018]
- 十一、ESMM [2018]
- 十二、DIN [2017]
- 十三、DIEN [2019]
- 十四、DSIN [2019]
- 十五、DICM [2017]
- 十六、DeepMCP [2019]
- 十七、MIMN [2019]
- 十八、DMR [2020]
- 十九、MiNet [2020]
- 二十、DSTN [2019]
- 二十一、BST [2019]
- 二十二、SIM [2020]
- 二十三、ESM2 [2019]
- 二十四、MV-DNN [2015]
- 二十五、CAN [2020]
- 二十六、AutoInt [2018]
- 二十七、Fi-GNN [2019]
- 二十八、FwFM [2018]
- 二十九、FM2 [2021]
- 三十、FiBiNET [2019]
- 三十一、AutoFIS [2020]
- 三十三、AFN [2020]
- 三十四、FGCNN [2019]
- 三十五、AutoCross [2019]
- 三十六、InterHAt [2020]
- 三十七、xDeepInt [2023]
- 三十九、AutoDis [2021]
- 四十、MDE [2020]
- 四十一、NIS [2020]
- 四十二、AutoEmb [2020]
- 四十三、AutoDim [2021]
- 四十四、PEP [2021]
- 四十五、DeepLight [2021]
- 图的表达
- 一、DeepWalk [2014]
- 二、LINE [2015]
- 三、GraRep [2015]
- 四、TADW [2015]
- 五、DNGR [2016]
- 六、Node2Vec [2016]
- 七、WALKLETS [2016]
- 八、SDNE [2016]
- 九、CANE [2017]
- 十、EOE [2017]
- 十一、metapath2vec [2017]
- 十二、GraphGAN [2018]
- 十三、struc2vec [2017]
- 十四、GraphWave [2018]
- 十五、NetMF [2017]
- 十六、NetSMF [2019]
- 十七、PTE [2015]
- 十八、HNE [2015]
- 十九、AANE [2017]
- 二十、LANE [2017]
- 二十一、MVE [2017]
- 二十二、PMNE [2017]
- 二十三、ANRL [2018]
- 二十四、DANE [2018]
- 二十五、HERec [2018]
- 二十六、GATNE [2019]
- 二十七、MNE [2018]
- 二十八、MVN2VEC [2018]
- 二十九、SNE [2018]
- 三十、ProNE [2019]
- Graph Embedding 综述
- 图神经网络
- 一、GNN [2009]
- 二、Spectral Networks 和 Deep Locally Connected Networks [2013]
- 三、Fast Localized Spectral Filtering On Graph [2016]
- 四、GCN [2016]
- 五、神经图指纹 [2015]
- 六、GGS-NN [2016]
- 七、PATCHY-SAN [2016]
- 八、GraphSAGE [2017]
- 九、GAT [2017]
- 十、R-GCN [2017]
- 十一、 AGCN [2018]
- 十二、FastGCN [2018]
- 十三、PinSage [2018]
- 十四、GCMC [2017]
- 十五、JK-Net [2018]
- 十六、PPNP [2018]
- 十七、VRGCN [2017]
- 十八、ClusterGCN [2019]
- 十九、LDS-GNN [2019]
- 二十、DIAL-GNN [2019]
- 二十一、HAN [2019]
- 二十二、HetGNN [2019]
- 二十三、HGT [2020]
- 二十四、GPT-GNN [2020]
- 二十五、Geom-GCN [2020]
- 二十六、Graph Network [2018]
- 二十七、GIN [2019]
- 二十八、MPNN [2017]
- 二十九、UniMP [2020]
- 三十、Correct and Smooth [2020]
- 三十一、LGCN [2018]
- 三十二、DGCNN [2018]
- 三十三、AS-GCN
- 三十四、DGI [2018]
- 三十五、DIFFPOLL [2018]
- 三十六、DCNN [2016]
- 三十七、IN [2016]
- 图神经网络 2
- 图神经网络 3
- 推荐算法(传统方法)
- 一、Tapestry [1992]
- 二、GroupLens [1994]
- 三、ItemBased CF [2001]
- 四、Amazon I-2-I CF [2003]
- 五、Slope One Rating-Based CF [2005]
- 六、Bipartite Network Projection [2007]
- 七、Implicit Feedback CF [2008]
- 八、PMF [2008]
- 九、SVD++ [2008]
- 十、MMMF 扩展 [2008]
- 十一、OCCF [2008]
- 十二、BPR [2009]
- 十三、MF for RS [2009]
- 十四、 Netflix BellKor Solution [2009]
- 推荐算法(神经网络方法 1)
- 一、MIND [2019](用于召回)
- 二、DNN For YouTube [2016]
- 三、Recommending What Video to Watch Next [2019]
- 四、ESAM [2020]
- 五、Facebook Embedding Based Retrieval [2020](用于检索)
- 六、Airbnb Search Ranking [2018]
- 七、MOBIUS [2019](用于召回)
- 八、TDM [2018](用于检索)
- 九、DR [2020](用于检索)
- 十、JTM [2019](用于检索)
- 十一、Pinterest Recommender System [2017]
- 十二、DLRM [2019]
- 十三、Applying Deep Learning To Airbnb Search [2018]
- 十四、Improving Deep Learning For Airbnb Search [2020]
- 十五、HOP-Rec [2018]
- 十六、NCF [2017]
- 十七、NGCF [2019]
- 十八、LightGCN [2020]
- 十九、Sampling-Bias-Corrected Neural Modeling [2019](检索)
- 二十、EGES [2018](Matching 阶段)
- 二十一、SDM [2019](Matching 阶段)
- 二十二、COLD [2020 ] (Pre-Ranking 模型)
- 二十三、ComiRec [2020](https://www.wenjiangs.com/doc/0b4e1736-ac78)
- 二十四、EdgeRec [2020]
- 二十五、DPSR [2020](检索)
- 二十六、PDN [2021](mathcing)
- 二十七、时空周期兴趣学习网络ST-PIL [2021]
- 推荐算法之序列推荐
- 一、FPMC [2010]
- 二、GRU4Rec [2015]
- 三、HRM [2015]
- 四、DREAM [2016]
- 五、Improved GRU4Rec [2016]
- 六、NARM [2017]
- 七、HRNN [2017]
- 八、RRN [2017]
- 九、Caser [2018]
- 十、p-RNN [2016]
- 十一、GRU4Rec Top-k Gains [2018]
- 十二、SASRec [2018]
- 十三、RUM [2018]
- 十四、SHAN [2018]
- 十五、Phased LSTM [2016]
- 十六、Time-LSTM [2017]
- 十七、STAMP [2018]
- 十八、Latent Cross [2018]
- 十九、CSRM [2019]
- 二十、SR-GNN [2019]
- 二十一、GC-SAN [2019]
- 二十二、BERT4Rec [2019]
- 二十三、MCPRN [2019]
- 二十四、RepeatNet [2019]
- 二十五、LINet(2019)
- 二十六、NextItNet [2019]
- 二十七、GCE-GNN [2020]
- 二十八、LESSR [2020]
- 二十九、HyperRec [2020]
- 三十、DHCN [2021]
- 三十一、TiSASRec [2020]
- 推荐算法(综述)
- 多任务学习
- 系统架构
- 实践方法论
- 深度强化学习 1
- 自动代码生成
工具
- CRF
- lightgbm
- xgboost
- scikit-learn
- spark
- numpy
- matplotlib
- pandas
- huggingface_transformer
- 一、Tokenizer
- 二、Datasets
- 三、Model
- 四、Trainer
- 五、Evaluator
- 六、Pipeline
- 七、Accelerate
- 八、Autoclass
- 九、应用
- 十、Gradio
Scala
- 环境搭建
- 基础知识
- 函数
- 类
- 样例类和模式匹配
- 测试和注解
- 集合 collection(一)
- 集合collection(二)
- 集成 Java
- 并发
四、选择超参数
大部分深度学习算法都有许多超参数来控制不同方面的算法表现
- 有的超参数会影响算法运行的时间和存储成本
- 有的超参数会影响学习到的模型质量,以及在新输入上推断正确结果的能力
有两种选择超参数的方法:
- 手动选择。手动选择超参数需要了解超参数做了些什么,以及机器学习模型如何才能取得良好的泛化
- 自动选择。自动选择超参数算法不需要你了解超参数做了什么以及机器学习模型如何才能取得零号的泛化,但是它往往需要更高的计算成本
4.1 手动调整超参数
手动设置超参数:
我们必须了解超参数、训练误差、泛化误差、计算资源(内存和运行时间) 之间的关系。这要求我们切实了解一个学习算法有效容量的基本概念
手动搜索超参数的任务是:在给定运行时间和内存预算范围的条件下,最小化泛化误差
- 我们不讨论超参数对于运行时间和内存的影响,因为它们高度依赖于平台
手动搜索超参数的主要目标是:调整模型的有效容量以匹配任务的复杂性
模型的有效容量受限于三个因素:
- 模型的表示容量。更多的网络层、每层更多的隐单元的模型具有更大的容量(能表达更复杂的函数)
- 学习算法成功最小化训练模型代价函数的能力
- 训练过程正则化模型的程度
模型的表示容量并不是越高越好。如果无法找到合适的代价函数来最小化训练代价、或者正则化项排除了某些合适的函数,那么即使模型的表达能力再强,也无法学习出合适的函数。
如果以超参数为自变量,泛化误差为因变量。那么会在的曲线通常会表现为 U 形
在某个极端情况下,超参数对应着低容量(并不是超参数越小,模型容量越低;也可能是相反的情况)。此时泛化误差由于训练误差较大而很高。这就是欠拟合
在另一个极端情况下,超参数对应着高容量,此时泛化误差也很大。这就是过拟合
- 过拟合中,泛化误差较大的原因是:虽然此时训练误差较小,但是训练误差和测试误差之间的差距较大。
最优的模型容量位于曲线中间的某个位置
对于某些超参数,当超参数值太大时,会发生过拟合。如中间层隐单元的数量,数量越大,模型容量越高,也更容易发生过拟合。
对于某些超参数,当超参数值太小时,也会发生过拟合。如 $ MathJax-Element-9 $ 正则化的权重系数,系数为0,表示没有正则化,此时很容易过拟合。
并不是每个超参数都对应着完整的 U 形曲线
- 很多超参数是离散的,如中间层隐单元的数量,或者
maxout
单元中线性片段的数目 - 有些超参数甚至是二值的。如是否决定对输入特征进行标准化这个布尔值的超参数
- 有些超参数可能有最小值或者最大值
- 很多超参数是离散的,如中间层隐单元的数量,或者
学习率可能是最重要的超参数
如果你只有时间来调整一个超参数,那么就调整学习率
相比其他超参数,学习率以一种更复杂的方式控制模型的有效容量:
- 当学习率大小适当时,模型的有效容量最高
- 当学习率过大时,梯度下降可能会不经意地增加而非减少训练误差。在理想的二次情况下,如果学习率是最佳值的两倍时,会发生这种情况
- 当学习率太小时,训练不仅会很慢,还有可能永久停留在一个很高的训练误差。对于这种情况我们知之甚少(但是我们可以知道这种情况不会发生在一个凸损失函数中)
学习率关于训练误差具有 U 形曲线。泛化误差也是类似的 U 形曲线,但是正则化作用在学习率过大或者过小处比较复杂
调整学习率以外的其他参数时,需要同时监测训练误差和测试误差,从而判断模型是否过拟合或者欠拟合,然后适当调整其容量
如果训练集错误率大于目标错误率(这个根据任务背景人工指定),那么只能增加模型容量以改进模型。但是这增加了模型的计算代价
如果测试集错误率大于目标错误率,则有两个方法:
- 如果训练误差较小(这说明模型容量较大),则表明测试误差取决于训练误差与测试误差之间的差距。要减少这个差距,我们可以改变正则化超参数,以减少有效的模型容量
- 如果训练误差较大(者说明模型容量较小),那么也只能增加模型容量以改进模型
通常最佳性能来自于正则化很好的大规模模型,如使用
Dropout
的神经网络大部分超参数可以推论出是否增加或者减少模型容量,部分示例如下:
超参数 容量何时增加 原因 注意事项 隐单元数量 增加 增加隐单元数量会增加模型的表示能力 几乎模型每个操作所需要的时间和内存代价都会随隐单元数量的增加而增加 学习率 调至最优 不正确的学习率,不管是太高还是太低都会由于优化失败而导致低的有效容量的模型 卷积核宽度 增加 增加卷积核宽度会增加模型的参数数量 较宽的卷积核导致较窄的输出尺寸,除非使用隐式零填充来减少此影响,否则会降低模型容量。较宽的卷积核需要更多的内存来存储参数,并增加运行时间 隐式零填充 增加 在卷积之前隐式添加零能保持较大尺寸的表示 大多数操作的时间和内存代价会增加 权重衰减系数 降低 降低权重衰减系数使得模型参数可以自由地变大 dropout 比率 降低 较少地丢弃单元可能更多的让单元彼此“协力”来适应训练集 手动调整超参数时不要忘记最终目标:提升测试集性能
- 加入正则化只是实现这个目标的一种方法
- 如果训练误差很低,也可以通过收集更多的训练数据来减少泛化误差。如果训练误差太大,则收集更多的训练数据就没有意义。
- 实践中的一种暴力方法是:不断提高模型容量和训练集的大小。这种方法增加了计算代价,只有在拥有充足的计算资源时才可行
4.2 自动超参数优化算法
理想的学习算法应该是只需要输入一个数据集,然后就可以输出学习的函数而不需要人工干预调整超参数
- 一些流行的算法如逻辑回归、支持向量机,其流行的部分原因是:这类算法只需要调整一到两个超参数,而且性能也不错
- 某些情况下,神经网络只需要调整少量的超参数就能达到不错的性能;但是大多数情况下需要调整更多的超参数
原则上可以开发出封装了学习算法的超参数优化算法,并自动选择其超参数
- 超参数优化算法往往有自己的超参数(如每个超参数的取值范围),这将问题变得更复杂
- 我们可以人工选择参数优化算法这一级的超参数,因为这一级的超参数通常更容易选择
4.3 网格搜索
当只有三个或者更少的超参数时,常见的超参数搜索方法是:网格搜索
- 对于每个超参数,选择一个较小的有限值集合去搜索
- 然后这些超参数笛卡尔乘积得到多组超参数
- 网格搜索使用每一组超参数训练模型,挑选验证集误差最小的超参数作为最好的超参数
如何确定搜索集合的范围?
- 如果超参数是数值,则搜索集合的最小、最大元素可以基于先前相似实验的经验保守地挑选出来
- 如果超参数是离散的,则直接使用离散值
通常网格搜索会在对数尺度下挑选合适的值
通常重复进行网格搜索时,效果会更好。假设在集合
{-1,0,1}
上网格搜索超参数 $ MathJax-Element-21 $- 如果找到的最佳值是 1,那么说明我们低估了 $ MathJax-Element-21 $ 的取值范围。此时重新在
{1,2,3}
上搜索 - 如果找到的最佳值是 0,那么我们可以细化搜索范围以改进估计。此时重新在
{-0.1,0,0.1}
上搜索
- 如果找到的最佳值是 1,那么说明我们低估了 $ MathJax-Element-21 $ 的取值范围。此时重新在
网格搜索的一个明显问题时:计算代价随着超参数数量呈指数级增长。
- 如果有 $ MathJax-Element-12 $ 个超参数,每个最多取 $ MathJax-Element-13 $ 个值,那么所需的试验数将是 $ MathJax-Element-14 $ 。虽然我们可以并行试验,但是指数级增长的计算代价仍然不可行
4.4 随机搜索
随机搜索是一种可以替代网格搜索的方法,它编程简单、使用方便、能更快收敛到超参数的良好取值:
- 首先为每个超参数定义一个边缘分布,如伯努利分布(对应着二元超参数)或者对数尺度上的均匀分布(对应着正实值超参数)
- 然后假设超参数之间相互独立,从各分布中抽样出一组超参数。
- 使用这组超参数训练模型
- 经过多次抽样 -> 训练过程,挑选验证集误差最小的超参数作为最好的超参数
随机搜索的优点:
- 不需要离散化超参数的值,也不需要限定超参数的取值范围。这允许我们在一个更大的集合上进行搜索
- 当某些超参数对于性能没有显著影响时,随机搜索相比于网格搜索指数级地高效,它能更快的减小验证集误差
与网格搜索一样,我们通常会基于前一次运行结果来重复运行下一个版本的随机搜索
随机搜索比网格搜索更快的找到良好超参数的原因是:没有浪费的实验
在网格搜索中,两次实验之间只会改变一个超参数 (假设为 $ MathJax-Element-19 $ )的值,而其他超参数的值保持不变。如果这个超参数 $ MathJax-Element-19 $ 的值对于验证集误差没有明显区别,那么网格搜索相当于进行了两个重复的实验
在随机搜索中,两次实验之间,所有的超参数值都不会相等(因为每个超参数的值都是从它们的分布函数中随机采样而来)。因此不大可能会出现两个重复的实验
如果 $ MathJax-Element-19 $ 超参数与泛化误差无关,那么不同的 $ MathJax-Element-19 $ 值:
- 在网格搜索中,不同 $ MathJax-Element-19 $ 值、相同的其他超参数值,会导致大量的重复实验
- 在随机搜索中,其他超参数值每次也都不同,因此不大可能出现两个重复的实验(除非所有的超参数都与泛化误差无关)
4.5 基于模型的超参数优化
超参数搜索问题可以转化为一个优化问题:
- 决策变量是超参数
- 优化的代价是超参数训练出来的模型在验证集上的误差
- 在简化的设定下,可以计算验证集上可导的误差函数关于超参数的梯度,然后基于这个梯度进行更新
实际上,大多数问题中,超参数的梯度是不可用的
- 一方面可能是因为因为高额的计算代价和存储成本。因为你需要计算非常多的超参数才能获得一系列的超参数的导数(这就要求你运行非常多轮次的算法)
- 另一方面可能是因为验证集误差在超参数上本质不可导(如超参数时离散值的情况)
为了弥补超参数梯度的缺失,我们可以使用贝叶斯回归模型来估计每个超参数的验证集误差的期望和该期望的不确定性(贝叶斯回归模型不需要使用梯度)
- 目前无法明确的确定:贝叶斯超参数优化是否有效。实际上,它有时表现得像一个人类专家,但是有时候又发生灾难的失误。目前该方法还不够成熟或可靠
大部分超参数优化算法比随机搜索更复杂,并且具有一个共同的缺点:在获取任何有效的超参数信息之前,你必须完整运行整个训练过程
- 这种做法是相当低效的。实际上人类手动搜索之前,可以很早就判断某些超参数组合是否是完全病态的
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论