re-ID 系列笔记(一)

度量学习--KISSME

KISSME(keep it simple and straightforward Metric Learning)[^1]

通过似然比判断两个样本点是否相似.如果$H_0$表示样本对不相似的空间,$H_1$表示样本对相似的空间.则似然比:

$$\delta(x_i,x_j) = log(\cfrac{p(x_i,x_j|H_0)}{p(x_i,x_j|H_1)})$$

如果$\delta(x_i,x_j)$较高,则偏向于不相似.反之值较低,则样本对相似.

为了使样本独立于原始特征空间的位置,原始特征被投影到一个零均值的差分空间,令$x_{ij}=x_i-x_j$.

则上式可以写为

$$\delta(x_{ij}) = log(\cfrac{p(x_{ij}|H_0)}{p(x_{ij}|H_1)}) = log(\cfrac{f(x_{ij}|\theta_0)}{f(x_{ij}|\theta_1)})$$

f表示对应的概率密度函数

相关行人对和不相关行人对在特征空间中服从均值0,协方差矩阵为$\Sigma_{y_{ij}=1}、\Sigma_{y_{ij}=0}$的多维正态分布:

$$\delta(x_{ij}) = log \left(\cfrac{1/{\sqrt{2\pi|{\Sigma_{y_{ij}=0}}|}exp(-1/2x_{ij}^T\Sigma_{y_{ij}=0}^{-1}x_{ij})}}{1/{\sqrt{2\pi|{\Sigma_{y_{ij}=1}}|}exp(-1/2x_{ij}^T\Sigma_{y_{ij}=1}^{-1}x_{ij})}}\right)$$

其中:

$$\Sigma_{y_{ij}=1}=\sum\limits_{y_{ij}=1}(x_i-x_j)(x_i-x_j)^T$$

$$\Sigma_{y_{ij}=0}=\sum\limits_{y_{ij}=0}(x_i-x_j)(x_i-x_j)^T$$

把log去掉,相似度函数中的常量不影响行人相似度的度量,故省略$log(.)$项

$$\delta({x_{ij}})=x_{ij}^T\Sigma_{y_{ij}=1}^{-1}x_{ij}+log(|\Sigma_{y_{ij}=1}|) - x_{ij}^T\Sigma_{y_{ij}=0}^{-1}x_{ij}-log(|\Sigma_{y_{ij}=0}|)$$

化简为:

$$\delta(x_{ij}) = x_{ij}^T(\Sigma_{y{ij}=1}^{-1}-\Sigma_{y{ij}=0}^{-1})x_{ij}$$

得到反映对数似然比性质的马氏矩阵.

$$d_M^2(x_i, x_j)=(x_i-x_j)^TM(x_i-x_j)$$

令$\hat{M}=\Sigma_{y{ij}=1}^{-1}-\Sigma_{y{ij}=0}^{-1}$

$\hat{M}$即为所求的测度矩阵,把得到的$\hat{M}$再次投影得到半正定矩阵.

一种KISSME的改进方法,引入核学习的方法[^3]

核学习的主要思想是将原始线性特征空间投影到区分性好的非线性空间. 原始特征空间中的特征xi通过函数 Φ 投影到非线性空间, 则非线性空间的特征表示为 Φ(xi). 非线性映射函数一般是隐性函数, 则很难得到显式表达式, 可以利用核函数求解特征空间中样本点的内积来解决.

(未完待续)


[^1]:Köstinger M, Hirzer M, Wohlhart P, et al. Large scale metric learning from equivalence constraints[C]// IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2012:2288-2295.

[^2]:齐美彬, 胡龙飞, 蒋建国,等. 多特征融合与独立测度学习的行人再识别[J]. 中国图象图形学报, 2016, 21(11):1464-1472.

[^3]:齐美彬, 檀胜顺, 王运侠,等. 基于多特征子空间与核学习的行人再识别[J]. 自动化学报, 2016, 42(2):299-308.

Buy me a coffe. XD