今天又是行人重識別的論文分享XD
Joint Discriminative and Generative Learning for Person Re-identification
這篇蠻有創意的,用GAN的方法來生成訓練資料,擴增數據量。
由於行人重識別的數據很難收集,標記也十分困難。
這篇可以將既有dataset中的人的外觀互換,在姿態不變之下改變衣服外觀,如下圖:
這樣生成的圖片比隨機產生的圖片更真實,quality也更高。
首先本文將特徵分為兩類:
一種為外表特徵,與行人的ID相關。
一種為結構特徵。與low-level的視覺特徵相關。
這是DGNet的結構,看起來有點複雜,其中主要包含兩個生成網路,一個判別網路
相同人不同照片的appearance code應該是相同的。
如上圖, 我們可以有一個自我重構的loss,還可以用同ID的positive sample來構建生成圖像。
這裡用了兩個pixel-level的L1 Loss(reconstruction):
本篇關鍵的部分,交換不同人的appearance code和structure code來生成新的圖,
主要使用GAN的adversarial Loss和reconstruction Loss
在reid識別部分,對於真實圖像,仍使用分類的cross entropy loss
對於生成圖像,使用了兩個loss,Lprim和Lfine,分別用來挖掘外觀和細節的部分。