数学基础
- 线性代数
- 概率论与随机过程
- 数值计算
- 蒙特卡洛方法与 MCMC 采样
- 机器学习方法概论
统计学习
深度学习
- 深度学习简介
- 深度前馈网络
- 反向传播算法
- 正则化
- 深度学习中的最优化问题
- 卷积神经网络
- CNN:图像分类
- 循环神经网络 RNN
- Transformer
- 一、Transformer [2017]
- 二、Universal Transformer [2018]
- 三、Transformer-XL [2019]
- 四、GPT1 [2018]
- 五、GPT2 [2019]
- 六、GPT3 [2020]
- 七、OPT [2022]
- 八、BERT [2018]
- 九、XLNet [2019]
- 十、RoBERTa [2019]
- 十一、ERNIE 1.0 [2019]
- 十二、ERNIE 2.0 [2019]
- 十三、ERNIE 3.0 [2021]
- 十四、ERNIE-Huawei [2019]
- 十五、MT-DNN [2019]
- 十六、BART [2019]
- 十七、mBART [2020]
- 十八、SpanBERT [2019]
- 十九、ALBERT [2019]
- 二十、UniLM [2019]
- 二十一、MASS [2019]
- 二十二、MacBERT [2019]
- 二十三、Fine-Tuning Language Models from Human Preferences [2019]
- 二十四 Learning to summarize from human feedback [2020]
- 二十五、InstructGPT [2022]
- 二十六、T5 [2020]
- 二十七、mT5 [2020]
- 二十八、ExT5 [2021]
- 二十九、Muppet [2021]
- 三十、Self-Attention with Relative Position Representations [2018]
- 三十一、USE [2018]
- 三十二、Sentence-BERT [2019]
- 三十三、SimCSE [2021]
- 三十四、BERT-Flow [2020]
- 三十五、BERT-Whitening [2021]
- 三十六、Comparing the Geometry of BERT, ELMo, and GPT-2 Embeddings [2019]
- 三十七、CERT [2020]
- 三十八、DeCLUTR [2020]
- 三十九、CLEAR [2020]
- 四十、ConSERT [2021]
- 四十一、Sentence-T5 [2021]
- 四十二、ULMFiT [2018]
- 四十三、Scaling Laws for Neural Language Models [2020]
- 四十四、Chinchilla [2022]
- 四十七、GLM-130B [2022]
- 四十八、GPT-NeoX-20B [2022]
- 四十九、Bloom [2022]
- 五十、PaLM [2022] (粗读)
- 五十一、PaLM2 [2023](粗读)
- 五十二、Self-Instruct [2022]
- 句子向量
- 词向量
- 传统CTR 预估模型
- CTR 预估模型
- 一、DSSM [2013]
- 二、FNN [2016]
- 三、PNN [2016]
- 四、DeepCrossing [2016]
- 五、Wide 和 Deep [2016]
- 六、DCN [2017]
- 七、DeepFM [2017]
- 八、NFM [2017]
- 九、AFM [2017]
- 十、xDeepFM [2018]
- 十一、ESMM [2018]
- 十二、DIN [2017]
- 十三、DIEN [2019]
- 十四、DSIN [2019]
- 十五、DICM [2017]
- 十六、DeepMCP [2019]
- 十七、MIMN [2019]
- 十八、DMR [2020]
- 十九、MiNet [2020]
- 二十、DSTN [2019]
- 二十一、BST [2019]
- 二十二、SIM [2020]
- 二十三、ESM2 [2019]
- 二十四、MV-DNN [2015]
- 二十五、CAN [2020]
- 二十六、AutoInt [2018]
- 二十七、Fi-GNN [2019]
- 二十八、FwFM [2018]
- 二十九、FM2 [2021]
- 三十、FiBiNET [2019]
- 三十一、AutoFIS [2020]
- 三十三、AFN [2020]
- 三十四、FGCNN [2019]
- 三十五、AutoCross [2019]
- 三十六、InterHAt [2020]
- 三十七、xDeepInt [2023]
- 三十九、AutoDis [2021]
- 四十、MDE [2020]
- 四十一、NIS [2020]
- 四十二、AutoEmb [2020]
- 四十三、AutoDim [2021]
- 四十四、PEP [2021]
- 四十五、DeepLight [2021]
- 图的表达
- 一、DeepWalk [2014]
- 二、LINE [2015]
- 三、GraRep [2015]
- 四、TADW [2015]
- 五、DNGR [2016]
- 六、Node2Vec [2016]
- 七、WALKLETS [2016]
- 八、SDNE [2016]
- 九、CANE [2017]
- 十、EOE [2017]
- 十一、metapath2vec [2017]
- 十二、GraphGAN [2018]
- 十三、struc2vec [2017]
- 十四、GraphWave [2018]
- 十五、NetMF [2017]
- 十六、NetSMF [2019]
- 十七、PTE [2015]
- 十八、HNE [2015]
- 十九、AANE [2017]
- 二十、LANE [2017]
- 二十一、MVE [2017]
- 二十二、PMNE [2017]
- 二十三、ANRL [2018]
- 二十四、DANE [2018]
- 二十五、HERec [2018]
- 二十六、GATNE [2019]
- 二十七、MNE [2018]
- 二十八、MVN2VEC [2018]
- 二十九、SNE [2018]
- 三十、ProNE [2019]
- Graph Embedding 综述
- 图神经网络
- 一、GNN [2009]
- 二、Spectral Networks 和 Deep Locally Connected Networks [2013]
- 三、Fast Localized Spectral Filtering On Graph [2016]
- 四、GCN [2016]
- 五、神经图指纹 [2015]
- 六、GGS-NN [2016]
- 七、PATCHY-SAN [2016]
- 八、GraphSAGE [2017]
- 九、GAT [2017]
- 十、R-GCN [2017]
- 十一、 AGCN [2018]
- 十二、FastGCN [2018]
- 十三、PinSage [2018]
- 十四、GCMC [2017]
- 十五、JK-Net [2018]
- 十六、PPNP [2018]
- 十七、VRGCN [2017]
- 十八、ClusterGCN [2019]
- 十九、LDS-GNN [2019]
- 二十、DIAL-GNN [2019]
- 二十一、HAN [2019]
- 二十二、HetGNN [2019]
- 二十三、HGT [2020]
- 二十四、GPT-GNN [2020]
- 二十五、Geom-GCN [2020]
- 二十六、Graph Network [2018]
- 二十七、GIN [2019]
- 二十八、MPNN [2017]
- 二十九、UniMP [2020]
- 三十、Correct and Smooth [2020]
- 三十一、LGCN [2018]
- 三十二、DGCNN [2018]
- 三十三、AS-GCN
- 三十四、DGI [2018]
- 三十五、DIFFPOLL [2018]
- 三十六、DCNN [2016]
- 三十七、IN [2016]
- 图神经网络 2
- 图神经网络 3
- 推荐算法(传统方法)
- 一、Tapestry [1992]
- 二、GroupLens [1994]
- 三、ItemBased CF [2001]
- 四、Amazon I-2-I CF [2003]
- 五、Slope One Rating-Based CF [2005]
- 六、Bipartite Network Projection [2007]
- 七、Implicit Feedback CF [2008]
- 八、PMF [2008]
- 九、SVD++ [2008]
- 十、MMMF 扩展 [2008]
- 十一、OCCF [2008]
- 十二、BPR [2009]
- 十三、MF for RS [2009]
- 十四、 Netflix BellKor Solution [2009]
- 推荐算法(神经网络方法 1)
- 一、MIND [2019](用于召回)
- 二、DNN For YouTube [2016]
- 三、Recommending What Video to Watch Next [2019]
- 四、ESAM [2020]
- 五、Facebook Embedding Based Retrieval [2020](用于检索)
- 六、Airbnb Search Ranking [2018]
- 七、MOBIUS [2019](用于召回)
- 八、TDM [2018](用于检索)
- 九、DR [2020](用于检索)
- 十、JTM [2019](用于检索)
- 十一、Pinterest Recommender System [2017]
- 十二、DLRM [2019]
- 十三、Applying Deep Learning To Airbnb Search [2018]
- 十四、Improving Deep Learning For Airbnb Search [2020]
- 十五、HOP-Rec [2018]
- 十六、NCF [2017]
- 十七、NGCF [2019]
- 十八、LightGCN [2020]
- 十九、Sampling-Bias-Corrected Neural Modeling [2019](检索)
- 二十、EGES [2018](Matching 阶段)
- 二十一、SDM [2019](Matching 阶段)
- 二十二、COLD [2020 ] (Pre-Ranking 模型)
- 二十三、ComiRec [2020](https://www.wenjiangs.com/doc/0b4e1736-ac78)
- 二十四、EdgeRec [2020]
- 二十五、DPSR [2020](检索)
- 二十六、PDN [2021](mathcing)
- 二十七、时空周期兴趣学习网络ST-PIL [2021]
- 推荐算法之序列推荐
- 一、FPMC [2010]
- 二、GRU4Rec [2015]
- 三、HRM [2015]
- 四、DREAM [2016]
- 五、Improved GRU4Rec [2016]
- 六、NARM [2017]
- 七、HRNN [2017]
- 八、RRN [2017]
- 九、Caser [2018]
- 十、p-RNN [2016]
- 十一、GRU4Rec Top-k Gains [2018]
- 十二、SASRec [2018]
- 十三、RUM [2018]
- 十四、SHAN [2018]
- 十五、Phased LSTM [2016]
- 十六、Time-LSTM [2017]
- 十七、STAMP [2018]
- 十八、Latent Cross [2018]
- 十九、CSRM [2019]
- 二十、SR-GNN [2019]
- 二十一、GC-SAN [2019]
- 二十二、BERT4Rec [2019]
- 二十三、MCPRN [2019]
- 二十四、RepeatNet [2019]
- 二十五、LINet(2019)
- 二十六、NextItNet [2019]
- 二十七、GCE-GNN [2020]
- 二十八、LESSR [2020]
- 二十九、HyperRec [2020]
- 三十、DHCN [2021]
- 三十一、TiSASRec [2020]
- 推荐算法(综述)
- 多任务学习
- 系统架构
- 实践方法论
- 深度强化学习 1
- 自动代码生成
工具
- CRF
- lightgbm
- xgboost
- scikit-learn
- spark
- numpy
- matplotlib
- pandas
- huggingface_transformer
- 一、Tokenizer
- 二、Datasets
- 三、Model
- 四、Trainer
- 五、Evaluator
- 六、Pipeline
- 七、Accelerate
- 八、Autoclass
- 九、应用
- 十、Gradio
Scala
- 环境搭建
- 基础知识
- 函数
- 类
- 样例类和模式匹配
- 测试和注解
- 集合 collection(一)
- 集合collection(二)
- 集成 Java
- 并发
三、马尔可夫随机场
根据前面的介绍,有向图模型可以将一组变量上的联合概率分布分解为局部条件概率分布的乘积。无向图模型也可以表示一个分解形式。
马尔可夫随机场
Markov Random Field:MRF
是一种著名的无向图模型。现实任务中,可能只知道两个变量之间存在相关关系,但是并不知道具体怎样相关,也就无法得到变量之间的依赖关系。
贝叶斯网络需要知道变量之间的依赖关系,从而对依赖关系(即条件概率)建模。
马尔科夫随机场并不需要知道变量之间的依赖关系。它通过变量之间的联合概率分布来直接描述变量之间的关系。
如: $ MathJax-Element-153 $ 两个变量的联合概率分布为:
$ MathJax-Element-153 $ $ MathJax-Element-154 $ $ MathJax-Element-155 $ 1000 $ MathJax-Element-156 $ 10 $ MathJax-Element-157 $ 20 $ MathJax-Element-158 $ 2000 则这个分布表示: $ MathJax-Element-159 $ 和 $ MathJax-Element-160 $ 取值相同的概率很大。
事实上这里的 $ MathJax-Element-161 $ 就是后面介绍的势函数。
- 它们的总和不一定为 1 。即:这个表格并未定义一个概率分布,它只是告诉我们某些配置具有更高的可能性。
- 它们并没有条件关系,它涉及到变量的联合分布的比例。
马尔可夫随机场可以应用于图像问题中。
- 每个像素都表示成一个节点,相邻像素之间相互影响。
- 像素之间并不存在因果关系,它们之间的作用是对称的。因此使用无向图概率模型,而不是有向图概率模型。
3.1 马尔科夫性
对结点 $ MathJax-Element-162 $ ,若去掉结点 $ MathJax-Element-166 $ 之后 $ MathJax-Element-165 $ 分属于两个联通分支,则称结点 $ MathJax-Element-165 $ 关于结点 $ MathJax-Element-166 $ 条件独立,记作 $ MathJax-Element-167 $ 。
这一概念可以推广到集合。
分离集
separating set
:如下图所示,若从结点集A
中的结点到结点集B
中的结点都必须经过结点集C
中的结点,则称结点集A
和结点集B
被结点集C
分离,C
称作分离集。马尔可夫随机场有三个马尔可夫性定义:
- 全局马尔科夫性。
- 局部马尔科夫性。
- 成对马尔科夫性。
全局马尔可夫性
global Markov property
:给定两个变量子集和它们的分离集,则这两个变量子集关于分离集条件独立。如上图,令结点集
A
、B
、C
对应的变量集分别为 $ MathJax-Element-168 $ , 则 $ MathJax-Element-169 $ 和 $ MathJax-Element-170 $ 在给定 $ MathJax-Element-171 $ 的条件下独立,记作: $ MathJax-Element-172 $ 。局部马尔可夫性
local Markov property
:给定某变量的邻接变量,则该变量与其他变量(既不是该变量本身,也不是邻接变量)关于邻接变量条件独立。即:令 $ MathJax-Element-177 $ 为图的结点集, $ MathJax-Element-274 $ 为结点 $ MathJax-Element-275 $ 在图上的邻接结点, $ MathJax-Element-176 $ ,则有:
$ \mathbb X_{v} \perp \mathbb X_{\mathbb V-n^{*}(v)} \mid \mathbb X_{n(v)} $这是根据全局马尔可夫性推导而来
成对马尔可夫性
pairwise Markov property
:给定两个非邻接变量,则这两个变量关于其他变量(即不是这两个变量的任何其他变量)条件独立。即:令 $ MathJax-Element-177 $ 为图的结点集,令 $ MathJax-Element-258 $ 为图的边集。对图中的两个结点 $ MathJax-Element-179 $ ,若 $ MathJax-Element-180 $ , 则有:
$ \mathbb X_{u} \perp \mathbb X_{v} \mid \mathbb X_{\mathbb V-\{u,v\}} $这也是根据全局马尔可夫性推导而来
3.2 极大团
考虑两个结点 $ MathJax-Element-252 $ ,如果它们之间不存在链接,则给定图中其他所有结点,那么这两个结点一定是条件独立的
因为这两个结点之间没有直接的路径,并且所有其他路径都通过了观测的结点。
该条件独立性表示为:
$ P(X_i,X_j\mid \mathbb X-\{X_i,X_j\})=P(X_i\mid \mathbb X-\{X_i,X_j\})P(X_j\mid\mathbb X-\{X_i,X_j\}) $对于联合概率分布的分解,则一定要让 $ MathJax-Element-252 $ 不能出现在同一个因子中,从而让属于这个图的所有可能的概率分布都满足条件独立性质。
这里引入团的概念:
对于图中结点的一个子集,如果其中任意两个结点之间都有边连接,则称该结点子集为一个团
clique
。即:团中的结点集合是全连接的。若在一个团中加入团外的任何一个结点都不再形成团,则称该团为极大团
maximal clique
。即:极大团就是不能被其他团所包含的团。
显然,每个结点至少出现在一个极大团中。
如下图所示
- 所有的团有: $ MathJax-Element-183 $
- 极大团有: $ MathJax-Element-184 $
可以将联合概率分布分解的因子定义为团中变量的函数,也称作势函数。
它是定义在随机变量子集上的非负实函数,主要用于定义概率分布函数。
在马尔可夫随机场中,多个变量之间的联合概率分布能够基于团分解为多个因子的乘积,每个因子仅和一个团相关。
对于 $ MathJax-Element-345 $ 个随机变量 $ MathJax-Element-186 $ ,所有团构成的集合为 $ MathJax-Element-187 $ , 与团 $ MathJax-Element-188 $ 对应的变量集合记作 $ MathJax-Element-229 $ ,则联合概率 $ MathJax-Element-208 $ 定义为:
$ P(\mathbb X)=\frac 1Z \prod_{\mathbb Q\in \mathcal C} \psi_\mathbb Q(\mathbb X_\mathbb Q) $其中:
- 所有团构成了整个概率图(团包含了结点和连接), 任意两个团之间不互相包含(但是可以相交)。
- $ MathJax-Element-203 $ 为与团 $ MathJax-Element-199 $ 对应的势函数,用于对 团 $ MathJax-Element-199 $ 中的变量关系进行建模。
- $ MathJax-Element-194 $ 为规范化因子,确保 $ MathJax-Element-208 $ 满足概率的定义。
- 实际应用中, $ MathJax-Element-620 $ 的精确计算非常困难。但是很多任务往往并不需要获得 $ MathJax-Element-620 $ 的精确值。
在上述 $ MathJax-Element-208 $ 计算公式中,团的数量会非常多。如:所有相互连接的两个结点都会构成一个团。这意味着有非常多的乘积项。
注意到:若团 $ MathJax-Element-199 $ 不是极大团,则它必被一个极大团 $ MathJax-Element-200 $ 所包含。此时有: $ MathJax-Element-201 $ 。
于是: 随机变量集合 $ MathJax-Element-229 $ 内部随机变量之间的关系不仅体现在势函数 $ MathJax-Element-203 $ 中,也体现在势函数 $ MathJax-Element-204 $ 中(这是根据势函数的定义得到的结论)。
于是: 联合概率 $ MathJax-Element-208 $ 可以基于极大团来定义。假定所有极大团构成的集合为 $ MathJax-Element-206 $ , 则有
$ P(\mathbb X)=\frac {1}{Z^{*}} \prod_{\mathbb Q\in \mathcal C^{*}} \psi_\mathbb Q(\mathbb X_\mathbb Q) $Hammersley-Clifford
定理:其中: $ MathJax-Element-207 $ 为规范化因子,确保 $ MathJax-Element-208 $ 满足概率的定义 。
通常贝叶斯网络可以将因子定义成表格形态,而马尔可夫随机场将因子定义为势函数。因为马尔可夫随机场无法将因子表格化。
假设有 $ MathJax-Element-345 $ 个随机变量 $ MathJax-Element-210 $ ,它们的取值都是 $ MathJax-Element-676 $ 。假设马尔可夫随机场中它们是全连接的,则其联合概率分布需要 $ MathJax-Element-212 $ 个参数。
如果表达成表格形态,横轴表示连接的一个端点、纵轴表示连接的另一个端点,则需要 $ MathJax-Element-213 $ 个参数。当 $ MathJax-Element-345 $ 较大的时候, $ MathJax-Element-215 $ ,因此表格无法完全描述马尔可夫随机场的参数。
全局马尔可夫性的一个证明:
将上图简化为如下所示:
最大团有两个: $ MathJax-Element-216 $ ,因此联合概率为:
$ P(\mathbb X_{A},\mathbb X_{B},\mathbb X_{C})=\frac 1Z\psi_{AC}(\mathbb X_{A},\mathbb X_{C})\psi_{BC}(\mathbb X_{B},\mathbb X_{C}) $基于条件概率的定义有:
$ P(\mathbb X_{A},\mathbb X_{B}\mid \mathbb X_{C})=\frac{P(\mathbb X_{A},\mathbb X_{B},\mathbb X_{C})}{P(\mathbb X_{C})} $根据:
$ P(\mathbb X_{C})=\sum_{\mathbb X_{A}^{\prime}}\sum_{\mathbb X_{B}^{\prime}} P(\mathbb X_{A}^{\prime},\mathbb X_{B}^{\prime},\mathbb X_{C}) = \sum_{\mathbb X_{A}^{\prime}}\sum_{\mathbb X_{B}^{\prime}}\frac {1}{Z}\psi_{AC}(\mathbb X_{A}^{\prime},\mathbb X_{C})\psi_{BC}(\mathbb X_{B}^{\prime},\mathbb X_{C}) $将 $ MathJax-Element-217 $ 和 $ MathJax-Element-218 $ 代入,有:
$ P(\mathbb X_{A},\mathbb X_{B}\mid \mathbb X_{C})=\frac{\psi_{AC}(\mathbb X_{A},\mathbb X_{C})\psi_{BC}(\mathbb X_{B},\mathbb X_{C}) }{\sum_{\mathbb X_{A}^{\prime}}\sum_{\mathbb X_{B}^{\prime}}\psi_{AC}(\mathbb X_{A}^{\prime},\mathbb X_{C})\psi_{BC}(\mathbb X_{B}^{\prime},\mathbb X_{C}) }\\ = \frac{\psi_{AC}(\mathbb X_{A},\mathbb X_{C})}{\sum_{\mathbb X_{A}^{\prime}}\psi_{AC}(\mathbb X_{A}^{\prime},\mathbb X_{C})}\cdot \frac{\psi_{BC}(\mathbb X_{B},\mathbb X_{C}) }{\sum_{\mathbb X_{B}^{\prime}}\psi_{BC}(\mathbb X_{B}^{\prime},\mathbb X_{C})} $考虑 $ MathJax-Element-219 $ :
- 同理,可以推导出:
于是有:
$ P(\mathbb X_{A},\mathbb X_{B}\mid \mathbb X_{C})=P(\mathbb X_{A}\mid \mathbb X_{C}) \cdot P(\mathbb X_{B}\mid \mathbb X_{C}) $
有向图和无向图模型都将复杂的联合分布分解为多个因子的乘积:
无向图模型的因子是势函数,需要全局归一化。
优点是:势函数设计不受概率分布的约束,设计灵活。
有向图模型的因子是概率分布,不需要全局归一化。
优点是:训练相对高效。
3.3 势函数
势函数 $ MathJax-Element-220 $ 的作用是刻画变量集 $ MathJax-Element-229 $ 中变量之间的相关关系。
与有向图的联合分布的因子不同,无向图中的势函数没有一个具体的概率意义。
- 这可以使得势函数的选择具有更大的灵活性,但是也产生一个问题:对于具体任务来说,如何选择势函数。
- 可以这样理解:将势函数看做一种度量:它表示局部变量的哪种配置优于其他配置。
势函数必须是非负函数(确保概率非负),且在所偏好的变量取值上具有较大的函数值。 如:
$ \psi_{AC}( X_A, X_C)=\begin{cases} 2.0,& \text{if}\quad X_A= X_C\\ 0.1,& \text{otherwise} \end{cases} \\ \psi_{BC}( X_B, X_C)=\begin{cases} 0.1,& \text{if}\quad X_B= X_C\\ 1.5,& \text{otherwise} \end{cases} $- 该模型偏好变量 $ MathJax-Element-222 $ 拥有相同的取值;偏好 $ MathJax-Element-223 $ 拥有不同的取值。
- 如果想获取较高的联合概率,则可以令 $ MathJax-Element-224 $ 和 $ MathJax-Element-225 $ 相同,且 $ MathJax-Element-226 $ 和 $ MathJax-Element-227 $ 不同。
通常使用指数函数来定义势函数:
$ \psi_\mathbb Q(\mathbb X_\mathbb Q)=e^{-H_\mathbb Q(\mathbb X_\mathbb Q)} $其中 $ MathJax-Element-230 $ 是一个定义在变量集 $ MathJax-Element-229 $ 上的实值函数,称作能量函数。
指数分布被称作玻尔兹曼分布。
联合概率分布被定义为势函数的乘积,因此总能量可以通过将每个最大团中的能量相加得到。
这就是采取指数函数的原因,指数将势函数的乘积转换为能量函数的相加。
$ MathJax-Element-230 $ 常见形式为:
$ H_\mathbb Q(\mathbb X_\mathbb Q)=\sum_{u,v \in \mathbb Q,u\neq v} \alpha_{u,v}t_{u,v}(u,v)+\sum_{v \in \mathbb Q}\beta_vs_v(v) $其中:
- $ MathJax-Element-231 $ 表示系数; $ MathJax-Element-232 $ 表示约束条件。
- 上式第一项考虑每一对结点之间的关系;第二项考虑单个结点。
3.4 图像降噪应用
马尔可夫随机场的一个应用是图像降噪。
如下图所示,左侧图片为原始图像,右侧图片为添加了一定噪音(假设噪音比例不超过 10%) 的噪音图像。现在给定噪音图像,需要得到原始图像。
设随机变量 $ MathJax-Element-672 $ 表示噪音图像中的像素,随机变量 $ MathJax-Element-302 $ 表示原始图像中的像素。其中:
- $ MathJax-Element-673 $ 代表图片上的每个位置。
- $ MathJax-Element-236 $ 。当它们取
+1
时,表示黑色;取-1
时,表示白色。
由于已知噪音图像,因此 $ MathJax-Element-672 $ 的分布是已知的。原始图像未知,则 $ MathJax-Element-302 $ 的分布待求解。
由于噪音图像是从原始图像添加噪音而来,因此我们认为: $ MathJax-Element-672 $ 和 $ MathJax-Element-302 $ 具有较强的关联。
由于原始图像中,每个像素和它周围的像素值比较接近,因此 $ MathJax-Element-302 $ 与它相邻的像素也存在较强的关联。
因此我们假设: $ MathJax-Element-302 $ 只和它直接相邻的像素有联系(即:条件独立性质)。
因此得到一个具备局部马尔可夫性质的概率图模型。模型中具有两类团:
- 团 $ MathJax-Element-253 $ :原始图像的像素和噪音图像的像素。
- 团 $ MathJax-Element-254 $ :原始图像的像素和其直接相邻的像素。
这两类团就是模型中的最大团。
定义能量函数:
- 对于团 $ MathJax-Element-253 $ ,定义能量函数: $ MathJax-Element-246 $ 。即: $ MathJax-Element-248 $ 相同时,能量较低; $ MathJax-Element-248 $ 不同时,能量较高。
- 对于团 $ MathJax-Element-254 $ ,定义能量函数: $ MathJax-Element-250 $ 。即: $ MathJax-Element-252 $ 相同时,能量较低; $ MathJax-Element-252 $ 不同时,能量较高。
- 另外对于团 $ MathJax-Element-253 $ , $ MathJax-Element-254 $ 这个整体,定义能量函数: $ MathJax-Element-255 $ 。 即: $ MathJax-Element-302 $ 较大时,能量较高; $ MathJax-Element-302 $ 较小时,能量较低。
于是得到整体的能量函数为:
$ H(\mathbb X,\mathbb Y)=h \sum_{i} X_i-\beta\sum_{(i,j) \in \mathbb E} X_iX_j -\eta \sum_{i}X_iY_i $其中 $ MathJax-Element-258 $ 为原始图像的相邻像素连接得到的边。
考虑到 $ MathJax-Element-259 $ ,根据最大似然准则,则模型优化目标是:
$ \min_{X_i} H(\mathbb X,\mathbb Y) = \min_{X_i} h \sum_{i} X_i-\beta\sum_{(i,j) \in \mathbb E} X_iX_j -\eta \sum_{i}X_iY_i $对于能量函数最小化这个最优化问题,由于每个位置的 $ MathJax-Element-302 $ 都可以取2 个值 $ MathJax-Element-261 $ ,因此有 $ MathJax-Element-262 $ 种取值策略, $ MathJax-Element-485 $ 为原始图像的像素数量。如果 $ MathJax-Element-485 $ 较大,则参数的搜索空间非常巨大。
实际任务中通过
ICM
算法、模拟退火算法、或者graph cuts
算法来解决这个参数搜索问题。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论