1.一種基于部分參數(shù)共享的深度卷積神經(jīng)網(wǎng)絡(luò)跨域服裝檢索方法,其特征在于,包括以下步驟:
S1:將街拍域、線上商品域的圖片分別輸入到兩路并行的結(jié)構(gòu)完全相同的深度卷積神經(jīng)網(wǎng)絡(luò)f中,即:將街拍域的圖片a輸入一路深度卷積神經(jīng)網(wǎng)絡(luò)得到f(a|wl,wus),將線上商品域的圖片p,n輸入到另一路深度卷積神經(jīng)網(wǎng)絡(luò)得到f(p|wl,wuo)和f(n|wl,wuo);其中wl為低層神經(jīng)網(wǎng)絡(luò)層共享的參數(shù),wus為街拍域的高層神經(jīng)網(wǎng)絡(luò)層參數(shù),wuo為線上商品域的高層神經(jīng)網(wǎng)絡(luò)參數(shù);p與a為同一款服裝,n與a為不同款服裝;
S2:計(jì)算圖片a與p的距離D(a,p)=‖f(a|wl,wus)-f(p|wl,wuo)‖2,a與n的距離D(a,n)=‖f(a|wl,wus)-f(n|wl,wuo)‖2;
S3:計(jì)算D(a,p)與D(a,n)的損失函數(shù)loss(D(a,p),D(a,n))=max{0,n+D(a,p)2-D(a,n)2},這是一個(gè)類鉸鏈損失函數(shù),使得圖片a與圖片p在深度卷積神經(jīng)網(wǎng)絡(luò)f映射的空間中距離盡可能近,而圖片a與圖片n在深度卷積神經(jīng)網(wǎng)絡(luò)f映射的空間中距離盡可能遠(yuǎn);m是一個(gè)超參數(shù),用來(lái)控制同款服裝與不同款服裝在f映射的空間中距離差別的余裕度;
S4:上述S1、S2和S3得到一個(gè)端對(duì)端的可訓(xùn)練的基于部分參數(shù)共享的深度卷積神經(jīng)網(wǎng)絡(luò)跨域服裝檢索模型,產(chǎn)生多組(a,p,n)三元圖片組通過(guò)反向傳播算法來(lái)進(jìn)行訓(xùn)練模型,得到S1步中的參數(shù)wl,wus,wuo;
S5:通過(guò)S4訓(xùn)練得到的檢索模型,將街拍域的圖片s映射為特征f(s|wl,wus),將線上商品域的圖片oi映射為f(oi|wl,wuo),i∈{1,2,…,N},其中N是線上商品庫(kù)中圖片的數(shù)量;
S6:分別計(jì)算f(s|wl,wus)與f(oi|wl,wuo)的歐式距離,即D(s,oi)=‖f(s|wl,wus)-f(oi|wl,wuo)‖2;
S7:對(duì)D(s,oi)進(jìn)行由低到高的前K排序得到前K個(gè)最小歐式距離l∈{1,2,…,K},圖片即為街拍域的圖片s在線上商品域的圖片集oi,i∈{1,2,…,N}中的前K檢索結(jié)果。
2.根據(jù)權(quán)利要求1所述的基于部分參數(shù)共享的深度卷積神經(jīng)網(wǎng)絡(luò)跨域服裝檢索方法,其特征在于,所述的S1包括以下步驟:
S101:將兩個(gè)域的三張圖片a,p,n縮放到同一大小,隨機(jī)裁剪其中一部分。
S102:輸入到兩路并行的結(jié)構(gòu)完全相同的深度卷積神經(jīng)網(wǎng)絡(luò)f中,a輸入到一路深度卷積神經(jīng)網(wǎng)絡(luò)中,得到f(a|wl,wus);p,n分別輸入到另一路深度卷積神經(jīng)網(wǎng)絡(luò)中,得到f(p|wl,wuo),f(n|wl,wuo)。
3.根據(jù)權(quán)利要求1或2所述的基于部分參數(shù)共享的深度卷積神經(jīng)網(wǎng)絡(luò)跨域服裝檢索方法,其特征在于,兩路并行的深度神經(jīng)網(wǎng)絡(luò)的低層神經(jīng)網(wǎng)絡(luò)層共享參數(shù),高層神經(jīng)網(wǎng)絡(luò)層的參數(shù)互相獨(dú)立。