Hội nghị Quốc gia lần thứ 23 về Điện tử, Truyền thơng và Cơng nghệ Thơng tin (REV-ECIT2020)
Tái nh™n d§ng nhân v™t s˚ dˆng ph˜Ïng pháp
hÂc sâu
Nguyπn Hồng TrÂng Nghỉa⇤ , Nguyπn Cơng Minh⇤ , Võ Duy Ngun⇤ ,
Tr¶n Minh Tựng Nguyn Tòn Trản Minh Khang
Trèng
Đi hc Cụng nghê Thụng tin, HQG-HCM
Tr˜Ìng §i hÂc Tài chính - Marketing
{16520808, 16520740}@gm.uit.edu.vn, {nguyenvd, khangnttm}@uit.edu.vn,
†
Tóm t≠t—Tái nh™n d§ng nhân v™t (Person ReIdentification) có nhi∑u ng dng thác tin vo cỏc hê thậng an ninh,
camera giám sát. Bài tốn tÁn t§i nhi∑u thách th˘c do sá
a dĐng gúc nhỡn, t th, trang phc v khung n∑n khi Ëi
t˜Òng di chuy∫n qua nhi∑u camera. Trong nghiên c˘u này,
chúng tơi dùng ∞c tr˜ng hÂc sâu t¯ m§ng DenseNet và
s˚ dˆng thêm thơng tin khơng gian – thÌi gian ∫ giúp c£i
thiªn k∏t qu£. Th˚ nghiªm trên hai bẻ d liêu Market-1501
v DukeMTMC-reID cho thòy hiêu quÊ cÊi thiên Rank-1
lản lềt tng 15% v 18.1%.
T khúaTỏi nhn dĐng nhân v™t, ∞c tr˜ng hÂc sâu,
∞c tr˜ng không gian – thèi gian.
I. GII THIừU
Trong thèi Đi cụng nghê phỏt trin ngày nay, hª thËng
các camera giám sát an ninh ngày càng phÍ bi∏n trong
các mơi tr˜Ìng c¶n £m b£o an ninh nh˜ siêu th‡, tr˜Ìng
hÂc, ngân hàng, bãi gi˙ xe,... Viªc v™n hành, s˚ dˆng
hª thËng camera quan sát này hiên vđn cũn ềc thác
hiên th cụng ch yu bi các chuyên viên v™n hành.
Tuy nhiên, t§i nh˙ng ‡a i∫m k trờn, sậ lềng ngèi
xuòt hiên l ròt lển, gõy ra ròt nhiu khú khn trong viêc
giỏm sỏt con ngèi.
Vểi mẻt hê thậng camera giỏm sỏt vểi gúc nhỡn khụng
chng lòp, mẻt trong nhng vòn ni bt ca hê thậng
giỏm sỏt ny l viêc theo vt mẻt ậi tềng khi Ëi
t˜Òng này di chuy∫n t¯ vùng giám sát cıa camera này
sang vùng giám sát cıa camera khác, hay còn ˜Ịc gÂi
là bài tốn tái nh™n d§ng Ëi t˜Ịng. Bài toỏn ny trờn
thác t gp ròt nhiu khú khn do sá a dĐng v ngoĐi
hỡnh v trang phc ca ậi tềng, ẻ nhiu ca vựng
nn, sá thay i v ẻ chi∏u sáng, góc nhìn cÙng nh˜
mỴt vài y∏u tË khác.
Bài toỏn tỏi nhn dĐng nhõn vt băng hê thậng mỏy tính
˜Ịc ˜a ra ∫ gi£i quy∏t vßn ∑ trên. Tái nh™n d§ng
nhân v™t là bài tốn so khĨp hình £nh các nhân v™t ˜Ịc
quay t¯ hai camera khác nhau có vùng quan sát khơng
chÁng lßp. Cˆ th∫, vĨi mÈi ng˜Ìi xuòt hiên camera
ISBN: 978-604-80-5076-4
273
th hai, hê thậng s cho ra mẻt danh sỏch nhng nhõn
vt ó xuòt hiên camera th nhòt ềc xp hĐng theo
mc ẻ tẽng tá so vĨi ng˜Ìi ang xét. Và trong mỴt
th™p kø qua, bi toỏn ny nhn ềc sá quan tõm ca
cẻng ng nghiên c˘u th‡ giác [1][2][3][4][5]
II. CÁC NGHIÊN CŸU LIÊN QUAN
A. Ph˜Ïng pháp hÂc sâu d¸a trên CNN
S¸ thành cơng cıa các ph˜Ïng pháp hÂc sâu (Deep
learning) trong image classification lan ta n person
reidentification vo nm 2014. Hiên tĐi cú ròt nhi∑u
ph˜Ïng pháp s˚ dˆng deep learning cho person ReID
˜Ịc xt bÊn tĐi cỏc hẻi ngh lển nh ICCV, CVPR,
... Dáa trên các model, các ph˜Ïng pháp này ˜Òc chia
thành ba nhỏnh chớnh v sau õy l mẻt trong ba nhỏnh:
dáa trên CNN.
CNN ngun thıy d¸a trên multi-layer perceptron hai
chi∑u. H˜Ĩng ti∏p c™n này th˜Ìng b‡ tác Ỵng bi nhi∑u
y∏u tË nh hỡnh dỏng, gúc ẻ, chiu sỏng. Vỡ cỏc mĐng
CNN ban ảu khụng ềc phỏt trin cho bi toỏn phỏt
hiên Ëi t˜Òng nên khi chúng ta áp dˆng chúng vào bài
tốn tái nh™n d§ng nhân v™t s≥ khơng §t ˜Ịc k∏t qu£
cao. Các ph˜Ïng pháp tái nh™n d§ng nhân v™t dáa trờn
CNN rỳt trớch c trng cú mẻt framework chung
˜Ịc mơ t£ trong hình 1.
Hình 1. Framework chung cho các ph˜Ïng pháp tái nh™n d§ng nhân
v™t s˚ dˆng m§ng CNN ∫ rút trích ∞c tr˜ng.
B. Bi∏n khơng gian – thÌi gian
Thay vì dùng thơng tin ∞c tr˜ng th‡ giác nhõn vt
cho bi toỏn P-ReID, mẻt loĐt cỏc phẽng phỏp ti∏p
c™n cÙng cË g≠ng ∫ khai thác thông tin không gian –
Hội nghị Quốc gia lần thứ 23 về Điện tử, Truyền thơng và Cơng nghệ Thơng tin (REV-ECIT2020)
thÌi gian. Cách Ïn gi£n nhßt là lßy thơng tin khơng
gian – thÌi gian t¯ chính các video. Các ph˜Ïng pháp
tái nh™n d§ng nhân v™t trên image-to-video và videobased [2][3] nh≠m ∏n viªc hÂc giá tr‡ khơng gian và
thÌi gian. Tuy nhiên nh˙ng ph˜Ïng pháp ti∏p c™n này
còn t™p trung chı y∏u vào viêc trớch xuòt c trng hỡnh
Ênh ch khụng phÊi thụng tin khơng gian, thÌi gian. Ví
dˆ mỴt ng˜Ìi camera 1 t§i thÌi gian t1 khơng nên
˜Ịc nh™n d§ng camera 2 tĐi thèi gian t2 cỏch ú mẻt
thèi im ng≠n. MỴt bi∏n khơng thÌi gian nh˜ v™y s≥
gi£m bĨt rßt nhi∑u các Ëi t˜Ịng khơng liên quan trong
t™p gallery. Áp dˆng s¸ hÈ trỊ ≠c l¸c này, Guangcong
Wang [6] xuòt mẻt framework hai lung c trng
th giỏc v xỏc suòt khụng gian - thèi gian mểi lĐ v §t
˜Ịc state-of-the-art trong bài tốn này.
Guangcong Wang cùng nhóm tác giÊ ó xuòt mẻt
framework mểi tỏi nhn dĐng nhân v™t vĨi thơng tin
khơng gian – thÌi gian. Framework có hai lng chính
mà nh™n vào c£ hai thơng tin ∞c tr˜ng th‡ giác và khơng
gian – thÌi gian ∫ tính tốn. VĨi s¸ giúp s˘c cıa các
thơng tin khơng gian – thÌi gian Ïn gi£n có th∫ dπ
dàng thu thp, st-ReID loĐi b ròt nhiu cỏc cp Ênh
khụng liờn quan và do v™y gi£m bĨt khó kh´n trong vßn
∑ m™p mÌ v∑ ngo§i hình trong bài tốn tái nh™n d§ng
nhân v™t. Ngồi ra, ∫ k∏t hỊp thơng tin t¯ hai lung
khỏc nhau, bi bỏo ó xuòt mẻt joint similarity metric
vĨi Logistic Smoothing (LS) ∫ tích hỊp hai lo§i thụng
tin khụng ng nhòt vo chung mẻt framework thậng
nhòt.
C. Phẽng pháp re-ranking
LỊi ích chính cıa ph˜Ïng pháp re-ranking là có th
thác thi m khụng yờu cảu cỏc mđu huòn luyên bÍ sung,
và nó có th∫ cung cßp bßt k˝ k∏t quÊ ranking ban ảu
no. Hiêu quÊ ca re-ranking ph thuẻc nhiu vo chòt
lềng ca danh sỏch xp hĐng ban ảu. Do ú, s dng
trác tip top-k Ênh ềc xp hĐng có th∫ gây nhiπu trong
hª thËng re-ranking và £nh h˜ng tĨi k∏t qu£ n∏u top-k
£nh ˜Ịc x∏p h§ng tÁn t§i £nh khơng úng. K-reciprocal
nearest neighbor [7] là gi£i pháp hiªu qu£ cho vßn ∑
trên. Hai £nh ˜Ịc gÂi là k-reciprocal nearest neighbors
khi chúng cùng ˜Ịc x∏p h§ng top-k khi £nh cũn lĐi
ềc dựng lm Ênh ảu vo. Do ú, k-reciprocal nearest
neighbor óng vai trị là mỴt quy t≠c ch∞t ch≥ hÏn cho
dù hai hình £nh có úng là t˜Ïng Áng hay không.
III. PH◊ÃNG PHÁP TH‹C NGHIõM
Trong nghiên c˘u này, chúng tơi h˜Ĩng ∏n viªc c£i
thiªn k∏t qu£ cıa các ph˜Ïng phỏp rỳt trớch c trng
hc sõu băng cỏch thờm vo các thơng tin Khơng gian
– thÌi gian ˜Ịc lßy t¯ tp huòn luyên. Dáa vo st-ReID
ISBN: 978-604-80-5076-4
274
[6], chỳng tụi s dˆng framework này và áp dˆng cho
các model trích xt ∞c tr˜ng th‡ giác nh˜ DenseNet
và OSNet.
A. Lng trích xt ∞c tr˜ng th‡ giác
ây là luÁng bi∫u diπn ´c tr˜ng hình £nh. Lng
này có th∫ s˚ dˆng a d§ng các loĐi model ềc thit
k cho viêc trớch xuòt c trng hình £nh nh˜ DenseNet,
ResNet ( ˜Ịc thi∏t k∏ cho bài tốn phát hiªn Ëi t˜Ịng)
hay PCB ( ˜Ịc thi∏t k∏ cho bài tốn tái nh™n d§ng nhân
v™t).
B. Lng Khơng gian Thèi gian
Mẻt hăng sậ khụng gian thèi gian s loĐi b ròt
nhiu ậi tềng khụng liờn quan trong t™p £nh gallery
và i∑u này làm gi£m bĨt vßn ∑ v sá mp mè trong
ngoĐi hỡnh. Vớ d, mẻt nhõn vt xuòt hiên camera A
tĐi thèi im t1 chứ nên ˜Ịc tìm ki∏m t§i camera B
t§i thÌi i∫m t2 . fi t˜ng này ã ˜Ịc giĨi thiªu bi
Guangcong Wang [6].
Thay vỡ dựng thụng tin còu trỳc nhõn vt, mẻt lo§t các
ph˜Ïng pháp ti∏p c™n cÙng cË g≠ng ∫ khai thác thơng
tin khơng gian – thÌi gian. Cách Ïn gi£n nhßt là lßy
thơng tin khơng gian – thÌi gian t¯ chính các video. Các
ph˜Ïng pháp tái nh™n diªn ng˜Ìi trên Image-to-video và
video-based [8] [2] nh≠m tĨi viªc hÂc khơng gian và thÌi
gian cË ‡nh ∞c i∫m th‡ giác. Tuy nhiên, các h˜Ĩng
ti∏p c™n này chø t™p trung viªc bi∫u diπn ∞c tr˜ng ch˘
khơng ph£i thơng tin khơng gian – thÌi gian xun st
các camera.
V∑ hình th˘c, lng khơng gian – thèi gian ny hc
mẻt ỏnh xĐ f = X ! Y t mẻt tp huòn luyên
(Xiv , xsi , xti , yi ), trong ó (Xiv , xsi , xti , yi ) Đi diên cho
visual feature vector, camera ID (thơng tin khơng gian),
nhãn thÌi gian (thơng tin thÌi gian) và ID nhân v™t. StReID có 3 tính chßt:
- Thơng tin b sung (xsi , xti ). Xuòt hiên rẻng rãi trong
các camera giám sát và có th∫ dπ dàng thu th™p mà
khơng c¶n annotation thı cơng.
- VĨi thơng tin khơng gian – thÌi gian Ïn gi£n, chúng
ta có th∫ cÊi thiên ỏng k hiêu nng cho bi toỏn
Mẻt lung khơng gian – thÌi gian có mˆc ích lßy ˜Ịc
thơng tin khơng gian – thÌi gian bÍ sung ∫ trỊ giúp
lng ∞c tr˜ng th‡ giác. Thay vì dùng mỴt hàm phân
phËi xác st óng [9] tn theo chı y∏u là gi£ thuy∏t,
chúng tơi ˜Ĩc l˜Ịng phân phËi khơng gian – thèi gian
băng cỏch s dng hểng tip cn ểc lềng khơng tham
sË, Parzen Window. Tuy nhiên, s≥ tËn thÌi gian trác
tip ểc lềng mẻt hm mt ẻ xỏc suòt vì có q nhi∑u
i∫m d˙ liªu khơng gian – thÌi gian.
Hội nghị Quốc gia lần thứ 23 về Điện tử, Truyền thông và Công nghệ Thông tin (REV-ECIT2020)
C. Hàm Joint
∫ k∏t hỊp thơng tin t¯ hai lng trên, mỴt hàm Joint
vĨi ph˜Ïng pháp làm m˜Ịt logistic mà có th∫ i∑u chứnh
xỏc suòt ca cỏc sá kiên him gp v tớnh tốn xác st
cıa hai c∞p £nh có cùng ID vĨi nh˙ng thơng tin nhßt
‡nh.
Chúng tơi s˚ dˆng hai h˜Ĩng ti∏p c™n:
- Làm m˜Ịt Laplace. Là mỴt kˇ thu™t ˜Ịc s˚ dng rẻng
rói trong ểc lềng xỏc suòt trểc trong Naive Bayes.
Kˇ thu™t này ˜Òc s˚ dˆng ∫ i∑u chønh xác st cıa
các tr˜Ìng hỊp hi∏m g∞p nên nh˙ng tr˜Ìng hỊp m xỏc
suòt gản băng 0 ềc trỏnh.
- Hm logistic. Mẻt mơ hình logistic ˜Ịc áp dˆng rỴng
rãi trong bài tốn phân lÓp nh‡ phân.
IV. TH‹C NGHIõM VÀ ÁNH GIÁ
A. LuÁng trớch xuòt c trng th giỏc
Chỳng tụi thác nghiêm trờn model trích xt ∞c tr˜ng
cho lng này là: DenseNet.
DenseNet [10] ban ảu ềc thit k cho bi toỏn phỏt
hiên ậi t˜Ịng. Trong bài báo này chúng tơi s≥ dùng
DenseNet nh˜ l mẻt backbone cho viêc trớch xuòt c
trng th giỏc. Bi vì DenseNet khơng ˜Ịc thi∏t k∏ cho
bài tốn tái nhn dĐng nhõn vt nờn viêc ỏp dng vo
bi toỏn s gp nhiu khú khn.
C. Kt QuÊ Thác Nghiêm
Chỳng tụi s˚ dˆng model DenseNet ∫ rút trích ∞c
tr˜ng vĨi Ỵ o kho£ng cách cosine. ∫ ánh giá k∏t qu£
bài toán, chúng tơi s˚ dˆng hai Ỵ o phÍ bi∏n là Rank-I
v mAP. Rank i l tứ lê th hĐng ỳng (true rank) năm
trong i v trớ ảu tiờn trong danh sỏch xp hĐng (ranked
list) trờn tng sậ Ênh probe cản tỏi nhn dĐng. mAP thỡ
lòy giỏ tr trung bỡnh ca i∫m sË average precision cıa
tßt c£ các câu truy vßn.
T¯ các k∏t qu£ trong b£ng I, chúng ta có th∫ thßy ˜Ịc
nhÌ vào thơng tin bÍ sung t¯ lng khơng gian – thÌi
gian, chúng ta ã c£i thiªn hiªn n´ng áng k∫ cho model
DenseNet (Rank-1 §t 97.5% so vĨi 80.9%, t´ng hÏn
15%), cÙng nh˜ OSNet (Rank-1 §t 98.2% so vĨi 94.8%,
tng 4.6%). iu ny cho ta thòy, vểi mẻt loĐi thơng tin
Ïn gi£n có th∫ thu th™p dπ dàng nh˜ thơng tin khơng,
thÌi gian ã giúp cho chúng ta c£i thiên ỏng k kt quÊ
ca DenseNet (mẻt mĐng khụng ềc thit k chuyờn
biêt cho bi toỏn tỏi nhn dĐng nhõn v™t) t˜Ïng ˜Ïng
các k∏t qu£ cıa các ph˜Ïng pháp hÂc sõu, cỏc mĐng
ềc thit k chuyờn biêt cho bi toỏn ny.
V. KũT LUọN V HNG PHT TRIửN
B. Bẻ D Liêu
Market-1501 [11] có tÍng cỴng 32668 £nh ˜Ịc chú
thích cıa 1501 Ëi t˜Ịng, vĨi 12936 £nh cıa 751 Ëi
t˜Ịng dùng cho giai oĐn huòn luyên (training) v 19732
Ênh ca 750 ậi t˜Ịng dùng cho giai o§n ki∫m th˚
(testing) cùng 3368 £nh dựng truy vòn (query). Mẩi
ậi tềng xuòt hiên trong tp d liêu tn tĐi ớt nhòt trong
hai mỏy quay.
DukeMTMC-reID [12] l mẻt phản ca bẻ d liêu
DukeMTMC (bẻ d liêu ca mỏy quay giỏm sỏt t
Đi hc DUKE 2014, phˆc vˆ cho nghiên c˘u tái nh™n
d§ng nhân v™t trên Ênh), theo nh dĐng ca bẻ d liêu
Market-1501. Bẻ d liêu gm 85 phỳt video cú ẻ phõn
giÊi cao (1080p) t¯ 8 camera khác nhau.
Các tác gi£ ã c≠t £nh ngèi i bẻ sau mẩi 120 frame.
TĐo ra tng hềp 36,411 bounding box ˜Ịc g≠n nhãn.
Có 1404 Ëi t˜Ịng xt hiªn nhi∑u hÏn 2 máy quay và
408 Ëi t˜Ịng nhiu, chứ xuòt hiên 1 mỏy quay. Chn
ngđu nhiờn 702 ậi tềng huòn luyên (training) v
702 ậi tềng cũn lĐi kim th (testing). Trong bẻ
kim th, chn mỴt £nh cıa mÈi Ëi t˜Ịng trong mÈi
camera và ∞t các £nh cịn l§i vào gallery.
K∏t qu£ là có ˜Ịc 16,552 Ênh huòn luyên ca 702 ậi
tềng, 2,228 Ênh query cıa 702 Ëi t˜Ịng cịn l§i và
ISBN: 978-604-80-5076-4
17,661 £nh gallery (702 Ëi t˜Òng và 408 Ëi t˜Òng
nhiπu).
275
Trong bài báo này, chúng tơi ã tìm hi∫u bài tốn tái
nh™n d§ng nhân v™t và các thách th˘c cıa nó. T¯ ó
chúng tơi th nghiêm bin khụng gian - thèi gian nhăm
giÊm sậ l˜Ịng £nh c¶n so khĨp, t¯ ó t´ng c˜Ìng kh£
n´ng cıa các ph˜Ïng pháp rút trích ∞c tr˜ng khơng
˜Ịc phát tri∫n riêng cho rút trích ∞c trung cıa bài
tốn tái nh™n d§ng nhân v™t, trong nghiên c˘u này là
DenseNet. K∏t quÊ thác nghiêm ó chứ ra (theo bÊng
I), phẽng phỏp này c£i thiªn áng k∫ hiªu n´ng cıa
ph˜Ïng pháp DenseNet gản băng cỏc phẽng phỏp c
trung chuyờn dựng cho bi tốn tái nh™n d§ng nhân v™t
nh˜ PCB, OSNet và cao hÏn áng k∫ khi khơng có thơng
tin khơng gian - thèi gian (trờn hai bẻ d liêu Market1501 v DukeMTMC-reID cho thòy hiêu quÊ cÊi thiên
Rank-1 lản lềt tng 15% v 18.1%). Tuy nhiờn, sá cÊi
thiên ny vđn khụng cao hÏn k∏t qu£ ˜Ịc cơng bË cıa
St-reid do DenseNet khơng ềc thit k chuyờn biêt
cho bi toỏn tỏi nhn dĐng nhân v™t nh˜ là PCB.
Tuy các k∏t qu£ ∞t ˜Òc l khỏ khÊ quan nhng vđn
cũn nhiu hĐn ch. Vỡ v™y, trong nghiên c˘u t˜Ïng lai,
tác gıa s≥ th˚ nghiªm cng nh so sỏnh kt quÊ thác
nghiêm vểi nhiu phẽng pháp State-of-the-art khác
nhau.
Hội nghị Quốc gia lần thứ 23 về Điện tử, Truyền thơng và Cơng nghệ Thơng tin (REV-ECIT2020)
B£ng I
KịT Q TH‹C NGHIõM
Ph˜Ïng pháp
Rút trích ∞c tr˜ng (DenseNet-121)
Rút trích ∞c tr˜ng + thơng tin khơng gian - thÌi gian
(DenseNet121
Rút trích ∞c tr˜ng + thơng tin khơng gian - thÌi gian +
reranking (DenseNet121)
St-reid [6]
Market1501
R-1
R-5
80.9
91.4
R-10
94.3
mAP
61.4
DukeMTMC-reID
R-1
R-5
R-5
73.1
-
mAP
55.1
97.5
99.2
99.4
88.6
92.9
96.7
97.4
80.8
97.1
98.8
99.0
94.6
91.2
95.9
96.5
90.5
98.0
98.9
99.1
95.5
94.5
96.8
97.1
92.7
LÕI CÉM ÃN
Nghiên c˘u ˜Ịc tài trỊ bi Tr˜Ìng §i hÂc Tài chính
- Marketing trong khn khÍ ∑ tài mã sË CS-10-20.
Chúng tơi xin chân thành cám Ïn Phịng thớ nghiêm
Truyn thụng a phẽng tiên, Trèng Đi hc Cụng
nghê Thơng tin, HQG-HCM ã hÈ trỊ chúng tơi trong
nghiên c˘u này.
TÀI LIõU THAM KHÉO
[1] D. Li, X. Chen, Z. Zhang, and K. Huang, “Learning deep
context-aware features over body and latent parts for person
re-identification,” in Proceedings of the IEEE conference on
computer vision and pattern recognition, 2017, pp. 384–393.
[2] S. Li, S. Bak, P. Carr, and X. Wang, “Diversity regularized spatiotemporal attention for video-based person re-identification,”
in Proceedings of the IEEE Conference on Computer Vision and
Pattern Recognition, 2018, pp. 369–378.
[3] J. Lv, W. Chen, Q. Li, and C. Yang, “Unsupervised cross-dataset
person re-identification by transfer learning of spatial-temporal
patterns,” in Proceedings of the IEEE Conference on Computer
Vision and Pattern Recognition, 2018, pp. 7948–7956.
[4] V. D. Ngun and N. T. B. NgÂc, “ ánh giá mỴt sË ph˜Ïng
pháp bi∫u diπn ∞c tr˜ng cho bài toán tái nh™n d§ng nhân v™t,”
T§p chí Khoa hÂc, vol. 15, no. 6, p. 97, 2018.
[5] N. T. S. N. T. T. M. K. Nguyn Thnh Hiêp, Vừ Duy Nguyờn,
Tỏi nhn dĐng nhõn vt còp ẻ im Ênh, Conference on
information technology and its applications (CITA), 2019.
ISBN: 978-604-80-5076-4
276
[6] G. Wang, J. Lai, P. Huang, and X. Xie, “Spatial-temporal person
re-identification,” in Proceedings of the AAAI Conference on
Artificial Intelligence, vol. 33, 2019, pp. 8933–8940.
[7] Z. Zhong, L. Zheng, D. Cao, and S. Li, “Re-ranking person reidentification with k-reciprocal encoding,” in Proceedings of the
IEEE Conference on Computer Vision and Pattern Recognition,
2017, pp. 1318–1327.
[8] G. Wang, J. Lai, and X. Xie, “P2snet: Can an image match a
video for person re-identification in an end-to-end way?” IEEE
Transactions on Circuits and Systems for Video Technology,
vol. 28, no. 10, pp. 2777–2787, 2017.
[9] W. Huang, R. Hu, C. Liang, Y. Yu, Z. Wang, X. Zhong,
and C. Zhang, “Camera network based person re-identification
by leveraging spatial-temporal constraint and multiple cameras
relations,” in International Conference on Multimedia Modeling.
Springer, 2016, pp. 174–186.
[10] G. Huang, Z. Liu, L. Van Der Maaten, and K. Q. Weinberger,
“Densely connected convolutional networks,” in Proceedings of
the IEEE conference on computer vision and pattern recognition,
2017, pp. 4700–4708.
[11] Y. Lin, L. Zheng, Z. Zheng, Y. Wu, Z. Hu, C. Yan, and Y. Yang,
“Improving person re-identification by attribute and identity
learning,” Pattern Recognition, vol. 95, pp. 151–161, 2019.
[12] Z. Zheng, L. Zheng, and Y. Yang, “Unlabeled samples generated
by gan improve the person re-identification baseline in vitro,” in
Proceedings of the IEEE International Conference on Computer
Vision, 2017, pp. 3754–3762.