DifferNet 是首个将 归一化流(Normalizing Flows, NF) 引入工业图像异常检测(AD)的研究成果。


根据概率论中的变量代换定理(Change of Variables)
$$ p_Y(y) = p_Z(z) \left| \det \frac{\partial z}{\partial y} \right| $$
max正常样本特征的似然度likelihood p_Y(y), 即正样本概率大
=》 最小化负对数似然 (Negative Log-Likelihood, NLL), 即min -log(p_Y(y))
虽然 p_Y(y) 在数学形式上是一个概率密度函数,但在统计推断和模型训练的语境下,它被称为 likelihood(似然),原因如下:
| 概念 | 符号 | 解释角度 | 固定的是什么? |
|---|---|---|---|
| Probability | p(y∣θ) | 给定参数 θ,数据 y 出现的概率 | 参数 θ |
| Likelihood | L(θ∣y)=p(y∣θ) | 给定数据y,参数 θ的"合理性" | 数据 y |
y和z在不同的空间,但是p_Y(y)和p_Z(z)成正比
f_NF没见过的特征y会被映射到正态分布的边缘甚至更远的地方,导致算出的p_Z(z)极小。
Anomaly score of image x

identifies the defective region by back propagating the negative log-likelihood loss, L, back to the input image pixel x ⇒ gradient map / anomaly map gx.

∇x( -log(p_Y(y)) )
each input channel x_c;
高斯平滑:G高斯kernel,∗ as 2D convolution.
原图中哪个像素稍微改变一点点,就能大幅影响最终的异常得分?这就意味着这个像素就是缺陷所在!梯度绝对值越大的区域,就是缺陷被定位的区域.
