iT邦幫忙

第 12 屆 iThome 鐵人賽

DAY 12
0
AI & Data

AI x 日常 x 30天系列 第 12

Epoch 12 - 行人重識別論文筆記 x SSG

  • 分享至 

  • xImage
  •  

今天介紹Person re-id的論文:
Self-similarity Grouping: A Simple Unsupervised Cross Domain Adaptation Approach for Person Re-identification

在訓練模型最常遇到的問題就是,在既有的training data上可以訓練良好(source domain),但到了應用場景(target domain)表現卻差強人意。
這種差距可以透過增加training data的多樣性來減輕。
但由於標註的大規模數據集獲取成本高,因此無監督領域自適應方法(UDA)成為一種most popular方法。
大部分previous work聚焦於augmentation或者domain adaptation,
而忽視了目標域訓練樣本中存在的相似自然特徵。
因此,作者提出了無監督自相似性分組(SSG)去挖掘整體到局部的潛在相似性。

SSG為目標域中每個person基於grouping的結果打上偽標籤,用已建立的偽標籤數據集對模型進行fine-tuning來挖掘這些自體相似性。

SSG流程:
先使用在ImageNet pretrain的模型,對目標域做一個特徵提取,
圖中藍色部分是全身部分提取,綠色黃色分別為上下半身提取。
然後對這3部分的圖做GAP,獲得相應的特徵向量ft, ft_up, ft_low

針對以上3個集合,作者採用無監督聚類方法,分別在3個集合中獲得一系列的group。針對每一張圖片,
我們可以獲得三個self-labels yt, yt_up, yt_low,因此我們可以構建一個新的目標域數據集Xt

接著使用triplet loss,他另外加上一層FC得到global embedding vector:ft_e,
所以總共有四個triplet loss terms

Evaluation


可以看到在跨domain的實驗中,SSG相對於其他方法,可以維持更好的準確度。


上一篇
Epoch 11 - 行人重識別(Person Re-identification)
下一篇
Epoch 13 - 行人重識別論文筆記 x ABD-Net
系列文
AI x 日常 x 30天30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言