数学基础
- 线性代数
- 概率论与随机过程
- 数值计算
- 蒙特卡洛方法与 MCMC 采样
- 机器学习方法概论
统计学习
深度学习
- 深度学习简介
- 深度前馈网络
- 反向传播算法
- 正则化
- 深度学习中的最优化问题
- 卷积神经网络
- CNN:图像分类
- 循环神经网络 RNN
- Transformer
- 一、Transformer [2017]
- 二、Universal Transformer [2018]
- 三、Transformer-XL [2019]
- 四、GPT1 [2018]
- 五、GPT2 [2019]
- 六、GPT3 [2020]
- 七、OPT [2022]
- 八、BERT [2018]
- 九、XLNet [2019]
- 十、RoBERTa [2019]
- 十一、ERNIE 1.0 [2019]
- 十二、ERNIE 2.0 [2019]
- 十三、ERNIE 3.0 [2021]
- 十四、ERNIE-Huawei [2019]
- 十五、MT-DNN [2019]
- 十六、BART [2019]
- 十七、mBART [2020]
- 十八、SpanBERT [2019]
- 十九、ALBERT [2019]
- 二十、UniLM [2019]
- 二十一、MASS [2019]
- 二十二、MacBERT [2019]
- 二十三、Fine-Tuning Language Models from Human Preferences [2019]
- 二十四 Learning to summarize from human feedback [2020]
- 二十五、InstructGPT [2022]
- 二十六、T5 [2020]
- 二十七、mT5 [2020]
- 二十八、ExT5 [2021]
- 二十九、Muppet [2021]
- 三十、Self-Attention with Relative Position Representations [2018]
- 三十一、USE [2018]
- 三十二、Sentence-BERT [2019]
- 三十三、SimCSE [2021]
- 三十四、BERT-Flow [2020]
- 三十五、BERT-Whitening [2021]
- 三十六、Comparing the Geometry of BERT, ELMo, and GPT-2 Embeddings [2019]
- 三十七、CERT [2020]
- 三十八、DeCLUTR [2020]
- 三十九、CLEAR [2020]
- 四十、ConSERT [2021]
- 四十一、Sentence-T5 [2021]
- 四十二、ULMFiT [2018]
- 四十三、Scaling Laws for Neural Language Models [2020]
- 四十四、Chinchilla [2022]
- 四十七、GLM-130B [2022]
- 四十八、GPT-NeoX-20B [2022]
- 四十九、Bloom [2022]
- 五十、PaLM [2022] (粗读)
- 五十一、PaLM2 [2023](粗读)
- 五十二、Self-Instruct [2022]
- 句子向量
- 词向量
- 传统CTR 预估模型
- CTR 预估模型
- 一、DSSM [2013]
- 二、FNN [2016]
- 三、PNN [2016]
- 四、DeepCrossing [2016]
- 五、Wide 和 Deep [2016]
- 六、DCN [2017]
- 七、DeepFM [2017]
- 八、NFM [2017]
- 九、AFM [2017]
- 十、xDeepFM [2018]
- 十一、ESMM [2018]
- 十二、DIN [2017]
- 十三、DIEN [2019]
- 十四、DSIN [2019]
- 十五、DICM [2017]
- 十六、DeepMCP [2019]
- 十七、MIMN [2019]
- 十八、DMR [2020]
- 十九、MiNet [2020]
- 二十、DSTN [2019]
- 二十一、BST [2019]
- 二十二、SIM [2020]
- 二十三、ESM2 [2019]
- 二十四、MV-DNN [2015]
- 二十五、CAN [2020]
- 二十六、AutoInt [2018]
- 二十七、Fi-GNN [2019]
- 二十八、FwFM [2018]
- 二十九、FM2 [2021]
- 三十、FiBiNET [2019]
- 三十一、AutoFIS [2020]
- 三十三、AFN [2020]
- 三十四、FGCNN [2019]
- 三十五、AutoCross [2019]
- 三十六、InterHAt [2020]
- 三十七、xDeepInt [2023]
- 三十九、AutoDis [2021]
- 四十、MDE [2020]
- 四十一、NIS [2020]
- 四十二、AutoEmb [2020]
- 四十三、AutoDim [2021]
- 四十四、PEP [2021]
- 四十五、DeepLight [2021]
- 图的表达
- 一、DeepWalk [2014]
- 二、LINE [2015]
- 三、GraRep [2015]
- 四、TADW [2015]
- 五、DNGR [2016]
- 六、Node2Vec [2016]
- 七、WALKLETS [2016]
- 八、SDNE [2016]
- 九、CANE [2017]
- 十、EOE [2017]
- 十一、metapath2vec [2017]
- 十二、GraphGAN [2018]
- 十三、struc2vec [2017]
- 十四、GraphWave [2018]
- 十五、NetMF [2017]
- 十六、NetSMF [2019]
- 十七、PTE [2015]
- 十八、HNE [2015]
- 十九、AANE [2017]
- 二十、LANE [2017]
- 二十一、MVE [2017]
- 二十二、PMNE [2017]
- 二十三、ANRL [2018]
- 二十四、DANE [2018]
- 二十五、HERec [2018]
- 二十六、GATNE [2019]
- 二十七、MNE [2018]
- 二十八、MVN2VEC [2018]
- 二十九、SNE [2018]
- 三十、ProNE [2019]
- Graph Embedding 综述
- 图神经网络
- 一、GNN [2009]
- 二、Spectral Networks 和 Deep Locally Connected Networks [2013]
- 三、Fast Localized Spectral Filtering On Graph [2016]
- 四、GCN [2016]
- 五、神经图指纹 [2015]
- 六、GGS-NN [2016]
- 七、PATCHY-SAN [2016]
- 八、GraphSAGE [2017]
- 九、GAT [2017]
- 十、R-GCN [2017]
- 十一、 AGCN [2018]
- 十二、FastGCN [2018]
- 十三、PinSage [2018]
- 十四、GCMC [2017]
- 十五、JK-Net [2018]
- 十六、PPNP [2018]
- 十七、VRGCN [2017]
- 十八、ClusterGCN [2019]
- 十九、LDS-GNN [2019]
- 二十、DIAL-GNN [2019]
- 二十一、HAN [2019]
- 二十二、HetGNN [2019]
- 二十三、HGT [2020]
- 二十四、GPT-GNN [2020]
- 二十五、Geom-GCN [2020]
- 二十六、Graph Network [2018]
- 二十七、GIN [2019]
- 二十八、MPNN [2017]
- 二十九、UniMP [2020]
- 三十、Correct and Smooth [2020]
- 三十一、LGCN [2018]
- 三十二、DGCNN [2018]
- 三十三、AS-GCN
- 三十四、DGI [2018]
- 三十五、DIFFPOLL [2018]
- 三十六、DCNN [2016]
- 三十七、IN [2016]
- 图神经网络 2
- 图神经网络 3
- 推荐算法(传统方法)
- 一、Tapestry [1992]
- 二、GroupLens [1994]
- 三、ItemBased CF [2001]
- 四、Amazon I-2-I CF [2003]
- 五、Slope One Rating-Based CF [2005]
- 六、Bipartite Network Projection [2007]
- 七、Implicit Feedback CF [2008]
- 八、PMF [2008]
- 九、SVD++ [2008]
- 十、MMMF 扩展 [2008]
- 十一、OCCF [2008]
- 十二、BPR [2009]
- 十三、MF for RS [2009]
- 十四、 Netflix BellKor Solution [2009]
- 推荐算法(神经网络方法 1)
- 一、MIND [2019](用于召回)
- 二、DNN For YouTube [2016]
- 三、Recommending What Video to Watch Next [2019]
- 四、ESAM [2020]
- 五、Facebook Embedding Based Retrieval [2020](用于检索)
- 六、Airbnb Search Ranking [2018]
- 七、MOBIUS [2019](用于召回)
- 八、TDM [2018](用于检索)
- 九、DR [2020](用于检索)
- 十、JTM [2019](用于检索)
- 十一、Pinterest Recommender System [2017]
- 十二、DLRM [2019]
- 十三、Applying Deep Learning To Airbnb Search [2018]
- 十四、Improving Deep Learning For Airbnb Search [2020]
- 十五、HOP-Rec [2018]
- 十六、NCF [2017]
- 十七、NGCF [2019]
- 十八、LightGCN [2020]
- 十九、Sampling-Bias-Corrected Neural Modeling [2019](检索)
- 二十、EGES [2018](Matching 阶段)
- 二十一、SDM [2019](Matching 阶段)
- 二十二、COLD [2020 ] (Pre-Ranking 模型)
- 二十三、ComiRec [2020](https://www.wenjiangs.com/doc/0b4e1736-ac78)
- 二十四、EdgeRec [2020]
- 二十五、DPSR [2020](检索)
- 二十六、PDN [2021](mathcing)
- 二十七、时空周期兴趣学习网络ST-PIL [2021]
- 推荐算法之序列推荐
- 一、FPMC [2010]
- 二、GRU4Rec [2015]
- 三、HRM [2015]
- 四、DREAM [2016]
- 五、Improved GRU4Rec [2016]
- 六、NARM [2017]
- 七、HRNN [2017]
- 八、RRN [2017]
- 九、Caser [2018]
- 十、p-RNN [2016]
- 十一、GRU4Rec Top-k Gains [2018]
- 十二、SASRec [2018]
- 十三、RUM [2018]
- 十四、SHAN [2018]
- 十五、Phased LSTM [2016]
- 十六、Time-LSTM [2017]
- 十七、STAMP [2018]
- 十八、Latent Cross [2018]
- 十九、CSRM [2019]
- 二十、SR-GNN [2019]
- 二十一、GC-SAN [2019]
- 二十二、BERT4Rec [2019]
- 二十三、MCPRN [2019]
- 二十四、RepeatNet [2019]
- 二十五、LINet(2019)
- 二十六、NextItNet [2019]
- 二十七、GCE-GNN [2020]
- 二十八、LESSR [2020]
- 二十九、HyperRec [2020]
- 三十、DHCN [2021]
- 三十一、TiSASRec [2020]
- 推荐算法(综述)
- 多任务学习
- 系统架构
- 实践方法论
- 深度强化学习 1
- 自动代码生成
工具
- CRF
- lightgbm
- xgboost
- scikit-learn
- spark
- numpy
- matplotlib
- pandas
- huggingface_transformer
- 一、Tokenizer
- 二、Datasets
- 三、Model
- 四、Trainer
- 五、Evaluator
- 六、Pipeline
- 七、Accelerate
- 八、Autoclass
- 九、应用
- 十、Gradio
Scala
- 环境搭建
- 基础知识
- 函数
- 类
- 样例类和模式匹配
- 测试和注解
- 集合 collection(一)
- 集合collection(二)
- 集成 Java
- 并发
七、独立成分分析
独立成分分析
ICA
用于从混合信号中分离出原始信号。本质上它并不是一个降维的算法,而是一个信号分离算法。
7.1 鸡尾酒会问题
假设酒会上有 $ MathJax-Element-897 $ 个人,他们可以同时说话。房间里散落了 $ MathJax-Element-897 $ 个声音接收器用于记录声音。酒会过后,从 $ MathJax-Element-897 $ 个声音接收器中采集到一组数据:
$ \mathbb D=\{\mathbf{\vec x}_1,\mathbf{\vec x}_2,\cdots,\mathbf{\vec x}_N\}\\ \mathbf{\vec x}_i=(x_{i,1},x_{i,2},\cdots,x_{i,n})^T $任务的目标是:从这 $ MathJax-Element-657 $ 个时刻的采样数据中恢复出每个人说话的信号。这个过程也称作盲信号分离。
随机变量 $ MathJax-Element-753 $ 表示观测随机变量, $ MathJax-Element-917 $ 是其第 $ MathJax-Element-874 $ 个采样值,其物理意义为:在时刻 $ MathJax-Element-874 $ 采集到的 $ MathJax-Element-897 $ 个声音信号。
定义:
第 $ MathJax-Element-874 $ 个人说话的信号为 $ MathJax-Element-700 $ 。它是一个随机变量,其分布为 $ MathJax-Element-632 $ 。 $ MathJax-Element-633 $ 为 $ MathJax-Element-767 $ 的 $ MathJax-Element-657 $ 个时刻的采样,记作 $ MathJax-Element-636 $ 。
$ MathJax-Element-897 $ 个人说话的信号为 $ MathJax-Element-638 $ 。它是一个 $ MathJax-Element-897 $ 维随机变量,分布为 $ MathJax-Element-640 $ 。 $ MathJax-Element-641 $ 为 $ MathJax-Element-766 $ 的 $ MathJax-Element-657 $ 个时刻的采样。
第 $ MathJax-Element-874 $ 个声音接收器收到的信号为 $ MathJax-Element-645 $ 。它是一个随机变量,其分布为 $ MathJax-Element-646 $ 。 $ MathJax-Element-647 $ 为 $ MathJax-Element-648 $ 的 $ MathJax-Element-657 $ 个时刻的采样,记作 $ MathJax-Element-650 $ 。
$ MathJax-Element-897 $ 个声音接收器收到的信号为 $ MathJax-Element-652 $ 。它是一个 $ MathJax-Element-897 $ 维随机变量,分布为 $ MathJax-Element-654 $ 。 $ MathJax-Element-655 $ 为 $ MathJax-Element-753 $ 的 $ MathJax-Element-657 $ 个时刻的采样。
定义矩阵 $ MathJax-Element-676 $ 和矩阵 $ MathJax-Element-666 $ 为:
$ \mathbf X=\begin{bmatrix} \mathbf{\vec x}_1^T\\ \vdots\\ \mathbf{\vec x}_N^T \end{bmatrix}= \begin{bmatrix} x_{1,1}&x_{1,2}&\cdots&x_{1,n}\\ x_{2,1}&x_{2,2}&\cdots&x_{2,n}\\ \vdots&\vdots&\ddots&\vdots\\ x_{N,1}&x_{N,2}&\cdots&x_{N,n}\\ \end{bmatrix}\quad \mathbf S=\begin{bmatrix} \mathbf{\vec s}_1^T\\ \vdots\\ \mathbf{\vec s}_N^T \end{bmatrix}= \begin{bmatrix} s_{1,1}&s_{1,2}&\cdots&s_{1,n}\\ s_{2,1}&s_{2,2}&\cdots&s_{2,n}\\ \vdots&\vdots&\ddots&\vdots\\ s_{N,1}&s_{N,2}&\cdots&s_{N,n}\\ \end{bmatrix} $其意义为:
- $ MathJax-Element-676 $ 的每一行代表 $ MathJax-Element-753 $ 在时刻 $ MathJax-Element-874 $ 的采样 $ MathJax-Element-917 $ ;每一列代表信号 $ MathJax-Element-664 $ 在所有时刻的采样序列 $ MathJax-Element-665 $ 。
- $ MathJax-Element-666 $ 的每一行代表 $ MathJax-Element-766 $ 在时刻 $ MathJax-Element-874 $ 的采样 $ MathJax-Element-669 $ ;每一列代表信号 $ MathJax-Element-670 $ 在所有时刻的采样序列 $ MathJax-Element-671 $ 。
$ MathJax-Element-672 $ 是一个未知的混合矩阵,它用于叠加 $ MathJax-Element-897 $ 个人说话的信号。则有: $ MathJax-Element-674 $ 。即: $ MathJax-Element-675 $ 。
其物理意义为:每个声音接收器采集的信号是所有人说话信号的线性叠加。
7.2 算法
现在 $ MathJax-Element-676 $ 是已知的,即信号 $ MathJax-Element-753 $ 是已知的。令 $ MathJax-Element-678 $ ,则有: $ MathJax-Element-715 $ 。 $ MathJax-Element-775 $ 称作分离矩阵。
如果没有任何先验知识,则无法同时确定信号 $ MathJax-Element-685 $ 和 $ MathJax-Element-775 $ 。
当 $ MathJax-Element-775 $ 的每个元素扩大 2 倍,同时信号 $ MathJax-Element-685 $ 放大2倍时,等式仍然成立。因此结果不是唯一的。
当调整信号 $ MathJax-Element-685 $ 中各子信号的顺序,同时调整 $ MathJax-Element-775 $ 中各行的顺序,等式也仍然成立。因此结果不是唯一的。
信号 $ MathJax-Element-766 $ 不能是多维高斯分布。
假设 $ MathJax-Element-766 $ 是多维高斯分布 : $ MathJax-Element-689 $ 。则 $ MathJax-Element-753 $ 也是一个多维高斯分布,均值为 $ MathJax-Element-691 $ ,方差为 $ MathJax-Element-692 $ 。
假设 $ MathJax-Element-693 $ 为任意一个正交矩阵,令 $ MathJax-Element-694 $ ,则有: $ MathJax-Element-695 $ 。
这表示在给定信号 $ MathJax-Element-766 $ 的分布和 $ MathJax-Element-753 $ 的分布的情况下,参数 $ MathJax-Element-698 $ 的值并不是唯一的,因此无法分离出每个人说话的信号 $ MathJax-Element-767 $ 。
假设每个人发出的声音信号 $ MathJax-Element-700 $ 相互独立,则 $ MathJax-Element-766 $ 的概率分布为: $ MathJax-Element-702 $ 。
根据 $ MathJax-Element-715 $ ,有: $ MathJax-Element-704 $ 。其中 $ MathJax-Element-705 $ 为行列式。
记:
$ \mathbf W=\begin{bmatrix} w_{1,1}&w_{1,2}&\cdots&w_{1,n}\\ w_{2,1}&w_{2,2}&\cdots&w_{2,n}\\ \vdots&\vdots&\ddots&\vdots\\ w_{n,1}&w_{n,2}&\cdots&w_{n,n}\\ \end{bmatrix} $令 $ MathJax-Element-706 $ , 即它是由 $ MathJax-Element-775 $ 的第 $ MathJax-Element-874 $ 行组成。则有:
$ p_s(\mathbf W\mathbf{\vec x}) = p_s(\mathbf{\vec w}_1^T\mathbf{\vec x},\cdots,\mathbf{\vec w}_n^T\mathbf{\vec x})=\prod_{i=1}^n p_s(\mathbf{\vec w}_i^T\mathbf{\vec x}) $因此有: $ MathJax-Element-709 $ 。
前面提到如果没有任何先验知识,则无法求解。这里需要假设 $ MathJax-Element-710 $ 。
首先,不能选取高斯分布。
其次,考虑到概率密度函数由累计分布函数求导得到,一个方便的选择是:选择累计分布函数为
$ g(s) =\frac{1}{1+e^{-s}} $sigmoid
函数 :则概率密度函数为:
给定采样样本集 $ MathJax-Element-778 $ ,则对数似然函数为:
$ \mathcal L=\sum_{i=1}^N\log p_x(\mathbf{\vec x}_i)=\sum_{i=1}^N\left(\log |\mathbf W|+\sum_{j=1}^n\log p_s(\mathbf{\vec w}_j^T\mathbf{\vec x}_i)\right) $根据最大似然准则,可以采用梯度下降法求解 $ MathJax-Element-844 $ 的最大值。
其中:根据矩阵微积分有: $ MathJax-Element-713 $ 。则有:
$ \nabla_{\mathbf W}\mathcal L =\begin{bmatrix}1-2g(\mathbf{\vec w}_1^T\mathbf{\vec x}_i)\\ 1-2g(\mathbf{\vec w}_2^T\mathbf{\vec x}_i)\\ \vdots\\ 1-2g(\mathbf{\vec w}_n^T\mathbf{\vec x}_i) \end{bmatrix} \mathbf{\vec x}_i^T +(\mathbf W^{-1})^{T} $当迭代求解出 $ MathJax-Element-775 $ 之后,通过 $ MathJax-Element-715 $ 。 还原出原始信号。
最大似然估计时,假设 $ MathJax-Element-917 $ 和 $ MathJax-Element-856 $ 之间是相互独立的。事实上对于语音信号或者其他具有时间连续性依赖性的数据(如:温度),这个假设不能成立。
- 但是当数据足够多,假设独立对于效果影响不大。
- 如果事先打乱样本,则会加快梯度下降法的收敛速度。
7.3 FastICA
FastICA
的基本思想是:使得 $ MathJax-Element-718 $ 最不可能是高斯信号。度量随机变量 $ MathJax-Element-729 $ 的分布为高斯分布的程度:
基于峰度
kurtosis
的方法: $ MathJax-Element-720 $ 。- 对于高斯分布,其峰度为 0 ,因此如果 $ MathJax-Element-721 $ 偏离 0 值越远,则它越不可能是高斯分布。
- 实际上该指标只能刻画一个分布是不是高斯分布,而无法描述一个分布偏离高斯分布的程度。因此该方法实际效果一般。
基于负熵的方法: $ MathJax-Element-722 $ 。 其中 $ MathJax-Element-723 $ 为随机变量的熵, $ MathJax-Element-724 $ 是一个高斯分布,其均值、方差与非高斯分布的 $ MathJax-Element-729 $ 的均值、方差相同。
在信息论中可以证明:在相同方差的条件下,高斯分布的熵最大。因此可以认为 $ MathJax-Element-728 $ 越大, $ MathJax-Element-729 $ 的分布偏离高斯分布越远。
由于计算 $ MathJax-Element-728 $ 必须需要知道 $ MathJax-Element-729 $ 的概率密度分布函数,实际任务中很难实现。因此通常采用近似公式 $ MathJax-Element-730 $ 来实现。其中 $ MathJax-Element-731 $ 为非线性函数,可以为:
$ MathJax-Element-732 $ 、 $ MathJax-Element-733 $ 、 $ MathJax-Element-734 $ 。其中 $ MathJax-Element-735 $ 。
其导数为 $ MathJax-Element-736 $ 。
定义目标函数为 $ MathJax-Element-737 $ ,采用梯度下降法求解。其迭代公式为:
$ \mathbf{\vec w} \leftarrow \mathbb E[\mathbf{\vec x} G(\mathbf{\vec w}^T\mathbf{\vec x})] - \mathbb E[G^\prime(\mathbf{\vec w}^T\mathbf{\vec x})] \mathbf{\vec w}\\ \mathbf{\vec w} \leftarrow \frac{\mathbf{\vec w}}{||\mathbf{\vec w}||} $一次
FastICA
算法能够估计出一个独立成分,为了估计出若干个独立成分,需要进行多次FastICA
算法来得到 $ MathJax-Element-738 $ 。为了防止这些向量收敛到同一个最大值(即:分解出同一个独立成分),当估计 $ MathJax-Element-740 $ 时,需要减去 $ MathJax-Element-740 $ 在之前得到的 $ MathJax-Element-741 $ 上的投影。即:
$ \mathbf{\vec w}_{i+1} \leftarrow \mathbb E[\mathbf{\vec x} G(\mathbf{\vec w}_{i+1}^T\mathbf{\vec x})] - \mathbb E[G^\prime(\mathbf{\vec w}_{i+1}^T\mathbf{\vec x})] \mathbf{\vec w}_{i+1}\\ \mathbf{\vec w}_{i+1} \leftarrow \mathbf{\vec w}_{i+1} - \sum_{k=1}^i (\mathbf{\vec w}_{i+1}^T\mathbf{\vec w}_{k})\mathbf{\vec w}_{k}\\ \mathbf{\vec w}_{i+1} \leftarrow \frac{\mathbf{\vec w}_{i+1}}{||\mathbf{\vec w}_{i+1}||} $其中下标 $ MathJax-Element-743 $ 并不是迭代步数,而是第 $ MathJax-Element-743 $ 个 $ MathJax-Element-744 $ 。
7.4 预处理
ICA
中需要进行预处理,主要有数据中心化、白化两个步骤。数据中心化:对数据集 $ MathJax-Element-778 $ 执行:
$ \mathbf{\vec x}_i \leftarrow\mathbf{\vec x}_i- \frac 1N \sum_{j=1}^{N}\mathbf{\vec x}_j $$ MathJax-Element-746 $ 称作数据集 $ MathJax-Element-841 $ 的中心向量,它的各元素就是各个特征的均值。
该操作使得 $ MathJax-Element-748 $ ,这也意味着 $ MathJax-Element-766 $ 也是零均值的。
白化:对 $ MathJax-Element-841 $ 执行线性变化,使其协方差矩阵为单位矩阵 $ MathJax-Element-751 $ 。即: $ MathJax-Element-760 $ 。
$ MathJax-Element-753 $ 的协方差矩阵为 $ MathJax-Element-754 $ (经过数据中心化之后), 设其特征值为 $ MathJax-Element-755 $ ,对应的特征向量组成的矩阵为 $ MathJax-Element-756 $ ,则有: $ MathJax-Element-757 $ ,其中 $ MathJax-Element-758 $ 。
令: $ MathJax-Element-759 $ ,则有: $ MathJax-Element-760 $ 。
若 $ MathJax-Element-761 $ 的协方差矩阵为单位矩阵,则根据 $ MathJax-Element-762 $ 有: $ MathJax-Element-763 $ 。
- 根据假设, $ MathJax-Element-766 $ 中各信号 $ MathJax-Element-765 $ 是相互独立的,因此 $ MathJax-Element-766 $ 的协方差矩阵必须是对角矩阵。
- 能够对 $ MathJax-Element-767 $ 进行缩放时,相应的 $ MathJax-Element-770 $ 进行同样缩放,等式仍然成立。即:最终的解与 $ MathJax-Element-770 $ 幅度无关。因此可以选择 $ MathJax-Element-770 $ 的长度为1。
因此有: $ MathJax-Element-771 $ 。
$ MathJax-Element-772 $ ,即 $ MathJax-Element-773 $ 相互正交且长度为1 。这也是
FastICA
算法中需要对 $ MathJax-Element-774 $ 进行归一化和正交化的原因。这使得矩阵 $ MathJax-Element-775 $ 的参数从 $ MathJax-Element-776 $ 个降低到 $ MathJax-Element-777 $ 个,减小了算法的计算复杂度。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论