600字范文,内容丰富有趣,生活中的好帮手!
600字范文 > Causal Intervention for Weakly-Supervised Semantic Segmentation

Causal Intervention for Weakly-Supervised Semantic Segmentation

时间:2021-03-10 16:40:10

相关推荐

Causal Intervention for Weakly-Supervised Semantic Segmentation

文章目录

概主要内容普通的弱监督语义分割因果模型训练流程代码

Zhang D., Zhang H., Tang J., Hua X. and Sun Q. Causal Intervention for Weakly-Supervised Semantic Segmentation. NIPS, .

这篇文章从因果关系的角度剖析如何提升弱监督语义分割的方法.

主要内容

普通的弱监督语义分割

弱监督语义分割不似普通的语义分割一样依赖丰富的人工标注, 本文考虑的情况就是非常极限的, 仅知道每张图片的类别标签(可以是多标签, 比如: 人, 车, 表示一张图片里面有人有车).

一般的弱监督语义分割包含:

训练一个分类模型(多标签);通过CAM确定大概的seed areas;将seed areas进行拓展得到pseudo-masks;训练一个分割模型(将pseudo-masks作为ground-truth);概分割模型作为最后的模型

但是显然的是, 仅仅凭借类别标签完成复杂的语义分割任务是相当困难的, 大概有如下:

目标物体往往不是孤立的: 有可能数据集中每次出现马的时候都会有一个人, 则分类模型可能会将二者的特征混合用于分类, 那么最后的分割就很难明显的把二者的边界提取出来;背景信息并不完全: 背景往往含有一些别的未被标注的目标, 而这些目标和我们所关心的目标有可能是相互联系甚至是同时存在的, 比如: 地板和沙发, 这导致在提取沙发的时候往往把模板也一并提取出来了;foreground, 前景的目标往往是共同变化的: 比如车和车窗, 车窗总是会反应周围的事物, 导致车窗这一属性不是用来提取车的好的特征, 分类模型很有可能会丢掉这一部分信息, 其导致的结果就是最后的分割的区域车窗少一块.

因果模型

C: context prior;

X: pixel-level image;

M: image-specific representation using the textual templates from C;

Y: labels.

作者认为, 整个流程是这样的:

确定先验背景信息CCC;通过先验背景信息CCC构建图片XXX;图片XXX和背景信息CCC共同确定了和背景有关的特征表示MMM;XXX, MMM 共同影响最后的类别标签YYY.

我们一般的分类模型, 实际上是拟合条件分布

P[Y∣X],\mathrm{P}[Y|X], P[Y∣X],

显然这个条件分布与先验的背景信息有很大联系, 即图(a).

而我们实际上所关心的是

P[Y∣do(X)],\mathrm{P}[Y|do(X)], P[Y∣do(X)],

即建立目标的出现和场景没有关系的模型.

首先我们要做的就是将其转为一般的统计估计量:

P[Y∣do(X)]=∑cP[Y∣do(X),c]P[c∣do(x)]=∑cP[Y∣do(X),c]P[c]=∑cP[Y∣X,c,f(X;c)]P[c]=∑cP[Y∣X,M=f(X;c)]P[c].(1)\tag{1} \begin{array}{rl} \mathrm{{P}}[Y|do(X)] =& \sum_{c} \mathrm{P}[Y|do(X), c] \: \mathrm{P}[c|do(x)]\\ =& \sum_{c} \mathrm{P}[Y|do(X), c] \: \mathrm{P}[c]\\ =& \sum_{c} \mathrm{P}[Y|X, c, f(X;c)] \: \mathrm{P}[c]\\ =& \sum_{c} \mathrm{P}[Y|X, M=f(X;c)] \: \mathrm{P}[c].\\ \end{array} P[Y∣do(X)]====​∑c​P[Y∣do(X),c]P[c∣do(x)]∑c​P[Y∣do(X),c]P[c]∑c​P[Y∣X,c,f(X;c)]P[c]∑c​P[Y∣X,M=f(X;c)]P[c].​(1)

显然, 这里有一个假设, 即知道了X,CX, CX,C之后, MMM也是确定的, 其通过M=f(X;c)M=f(X;c)M=f(X;c)来拟合.

训练流程

训练以X,MX, MX,M为输入的多标签分类网络, 其通过

P[Y∣do(X);Θt]=∏i=1n[1i∈Y11+exp⁡(−si)+1i∉Y11+exp⁡(si)],\mathrm{P}[Y|do(X);\Theta_t] = \prod_{i=1}^n [\mathbf{1}_{i \in Y}\frac{1}{1 + \exp(-s_i)} + \mathbf{1}_{i \not\in Y}\frac{1}{1 + \exp(s_i)} ], P[Y∣do(X);Θt​]=i=1∏n​[1i∈Y​1+exp(−si​)1​+1i​∈Y​1+exp(si​)1​],

其中si=f(X,Mt;θti)s_i=f(X, M_t;\theta_t^i)si​=f(X,Mt​;θti​), nnn是类别总数.利用CAM得到seed areas 并扩展为pseudo-mask;将上面的pseudo-mask作为ground-truth训练分割模型;计算

Mt+1=∑i=1nαiciP(ci),αi=softmax((W1Xm)T(W2ci)n).M_{t+1} = \sum_{i=1}^n \alpha_i c_i P(c_i), \quad \alpha_i = softmax(\frac{(W_1X_m)^T(W_2c_i)}{\sqrt{n}}). Mt+1​=i=1∑n​αi​ci​P(ci​),αi​=softmax(n​(W1​Xm​)T(W2​ci​)​).

注意到, 我们本应该最小化(1), 但是注意到, 此时对于每一个ccc, 我们都要循环一次, 这非常非常耗时, 所以作者是:

∑cP[Y∣do(X),M=f(X;c)]P[c]≈P[Y∣do(X),M=∑cf(X;c)P(c)].\sum_{c} \mathrm{P}[Y|do(X), M=f(X;c)] \mathrm{P}[c]\approx \mathrm{P}[Y|do(X), M=\sum_{c}f(X;c)\mathrm{P}(c) ].\\ c∑​P[Y∣do(X),M=f(X;c)]P[c]≈P[Y∣do(X),M=c∑​f(X;c)P(c)].

一直进行TTT步.

注:第1步中的f(X,Mt;θti)f(X, M_t;\theta_t^i)f(X,Mt​;θti​)并不一定要让X,MtX, M_tX,Mt​都在同一层输入, 实际上MtM_tMt​是比较抽象的信息, 故作者实验发现在后几个block加入效果更好;

注: 先验背景信息{ci}\{c_i\}{ci​}是pseudo-mask的平均;

注: W1,W2W_1, W_2W1​,W2​是可训练的参数.

代码

原文代码

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。