欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于眾包主動學習用于檢測異常圖片的方法

文檔序號:9453472閱讀:443來源:國知局
基于眾包主動學習用于檢測異常圖片的方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明涉及計算機大數(shù)據(jù)圖片處理領(lǐng)域,尤其涉及一種基于眾包主動學習用于檢 測異常圖片的方法。
【背景技術(shù)】
[0002] 當今社會,通過視頻采集模塊獲取海量視頻信息已經(jīng)應用在社會生活的很多領(lǐng) 域,例如:高速公路視頻抓拍,公安系統(tǒng)安全監(jiān)控,醫(yī)學領(lǐng)域內(nèi)窺膠囊,智能樓宇視頻監(jiān)控等 領(lǐng)域,但是對于海量的視頻圖像數(shù)據(jù)來說,能夠提取出用戶所需的顯著信息,例如,安全監(jiān) 控中人體姿態(tài)識別、以及內(nèi)窺膠囊醫(yī)療圖像處理等;
[0003] 首先,在高速公路視頻抓拍,公安系統(tǒng)安全監(jiān)控,智能樓宇視頻監(jiān)控領(lǐng)域,視頻抓 拍的圖像時間跨度很長,而且移動物體和靜止物體交錯出現(xiàn),這就給判別特定特征圖像帶 來極大的困難,雖然現(xiàn)有技術(shù)中有一些常規(guī)的判別特定特征圖像的方法,但是判別速度慢, 而且判別準確率低,需要后期進行人工篩選和剔除,耗費了人力物力;
[0004] 另外,膠囊內(nèi)窺鏡(WirelessCapsuleEndoscope,WCE)取代了傳統(tǒng)插入式內(nèi)窺 鏡。膠囊內(nèi)窺鏡只有普通膠囊的大小,但是其內(nèi)部集成了微型控制單元、照明裝置、無線通 信系統(tǒng)和微型成像裝置。現(xiàn)在生產(chǎn)的膠囊內(nèi)窺鏡都至少以2f/s(幀每秒)的速率傳輸所拍 攝到的消化道內(nèi)壁圖像,在人體內(nèi)大約停留8小時,大概產(chǎn)生67600幅圖像。隨著膠囊內(nèi)窺 鏡技術(shù)的不斷發(fā)展,拍攝的速率將會更快,每次檢查獲得更多的圖片。臨床醫(yī)生要在這樣龐 大數(shù)量的圖像中找到出血圖片或其他病變特征的圖片需要花費2~3小時的時間以及大量 的精力,這將對醫(yī)生在心理和生理上產(chǎn)生很大的壓力,易出現(xiàn)漏判、誤判的情況。在巨大的 數(shù)據(jù)量下,如何更好的管理與組織這些數(shù)據(jù)成為擺在人類面前的難題。這就亟需本領(lǐng)域技 術(shù)人員解決相應的技術(shù)問題。

【發(fā)明內(nèi)容】

[0005] 本發(fā)明旨在至少解決現(xiàn)有技術(shù)中存在的技術(shù)問題,特別創(chuàng)新地提出了一種基于眾 包主動學習用于檢測異常圖片的方法。
[0006] 為了實現(xiàn)本發(fā)明的上述目的,本發(fā)明提供了一種基于眾包主動學習用于檢測異常 圖片的方法,其包括如下步驟:
[0007]S1,獲取圖像特征,從圖像特征中提取二進制向量,選取色調(diào)和飽和度作為圖像特 征,合并色調(diào)和飽和度圖像特征來形成一個二維色調(diào)飽和度直方圖;
[0008]S2,計算每個圖像特征周圍的已標記樣本密度,對已標記樣本密度低于閾值的樣 本,計算信息熵,選擇信息熵最大的樣本放到眾包平臺,由用戶進行標記;
[0009]S3,根據(jù)眾包平臺用戶的標記和結(jié)果可信度計算方法,確定樣本的標簽,并臨時放 入訓練集,根據(jù)可信分類迭代算法,確定該標記樣本最終是否采用,并更新眾包平臺用戶的 信用度,并經(jīng)由眾包平臺返回給用戶,輸出初始分類器,當初始分類器達到一定閾值后執(zhí)行 S4 ;
[0010] S4,當S1-S3步驟執(zhí)行完畢后,輸出標記訓練集,輸出最終分類器。
[0011] 所述的基于眾包主動學習用于檢測異常圖片的方法,優(yōu)選的,所述S1包括:
[0012] 取一個二進制向量表示W(wǎng)CE圖像特征,顏色空間選擇HSI顏色空間,選取色調(diào)和飽 和度信息作為特征;
[0013] 合并色調(diào)和飽和度圖像特征來形成一個二維色調(diào)飽和度直方圖。
[0014] 所述的基于眾包主動學習用于檢測異常圖片的方法,優(yōu)選的,所述S2標記樣本密 度步驟包括:
[0015] 圖像特征集合為H= {Hi,H2,…,Hk},其中樣本集H1= {Hu,Hl2,…,^ ,… ,Hu},對于樣本化,在嘸中H^E至Hlj+E范圍內(nèi)查看已被標記的樣本數(shù)量AN,并根據(jù)如下 公式,計算其周圍被標記樣本的密度,DO^) =AN/2e,e為樣本圖像特征數(shù)量。
[0016] 所述的基于眾包主動學習用于檢測異常圖片的方法,優(yōu)選的,所述S2進行信息熵 計算步驟包括:
[0017] 基于時序密度表示為:
[0018]
[0019] 其中,p(yi|Xj)表示在給定樣本X/倩況下其標簽屬于yi的可能性,T(x」S)表示樣 本在集合S中的時序密度,S表示x在已標記樣本集中的領(lǐng)域集合;
[0020] 對于樣本集合X= {Xl,x2,…,xn},中的樣本xn,通過計算X中所有樣本之間的距 離并求其平均得到avg_distance,
[0021]
,其中n為正 整數(shù),d(Xl,Xj)指代樣本之間距離度量,Xl,Xj為樣本,下標i、j為正整數(shù),i<j;
[0022] 定義1 :樣本集合X={xux2,…,xn},中樣本乂;的鄰域樣本集合表示為:
[0023] N(Xj|X) = {xj|xjGX(x1;x2, ???,x; 1;xi+1, ???,xn)} ,d(xi,Xj) ^avg_distance(4)
[0024] 其中d(Xl,X])為樣本之間距離度量,選取歐式距離;
[0025] 定義2:標記函數(shù)I
[0026]
(:5 ):
[0027] 計算樣本X;在已標記樣本集合S中的領(lǐng)域集合為N(x|S) ={xux2,…,xn},其對 應標簽為Y= {y,,y9,…,yj,則
[0028]
(6)
[0029] 計算樣本Xi在已標記樣本集合S中的領(lǐng)域集合為N(x|S) ={xux2, ???,xn},其中 n(x|s)中和樣本Xi屬于同一圖像特征的集合為,統(tǒng)計XI在圖像 特征中位于樣本Xi前后e范圍內(nèi)的樣本數(shù)量SN,則H '
[0030]樣本Xl在集合S中的時序密度T(xi|S) =SN/2e;
[0031] 密度熵計算
[0032] 計算未標記樣本xn在未標記集合C中的近鄰樣本集合N(Xi|UN) ={xdx2,…,xn};
[0033] 則其未標記樣本xn的近鄰密度表示為:
[0034]
3N(Xl)為樣本Xl的鄰域樣本集合,小廣 示N(Xi)的某個元素,N表示N(Xi)中樣本的總數(shù);
[0035] 對信息熵計算,樣本包含的信息量表示為時序密度、近鄰熵與近鄰密度的乘積:
[0036]Information(x)=H(x)*p(x;)* (1-D(私));
[0037] 在未標記樣本集合UN中選擇信息熵最大的樣本xn進行標記,
[0038]L(xj=argmaxInformation(UN)〇
[0039] 所述的基于眾包主動學習用于檢測異常圖片的方法,優(yōu)選的,所述S3包括:
[0040] 結(jié)果可信度計算
[0041] 標記樣本Xl的用戶集合為u={ui,u2,…,Ul},用戶Ul的可信度為, 回答函數(shù)ANS(Ul),
[0042] 最終結(jié)果為yes的可信度,
,其 中I(ANS(i〇 = 'yes')中I為標記函數(shù),
[0043] 最終結(jié)果為no的可信度為
[0044]標記樣本Xi
[0045]
[0046] 最終樣本Xl標記結(jié)果可信度計算公式如下:
[0047]
[0048]用戶信用度更新
[0049] 根據(jù)采樣樣本的權(quán)重平均值AW以及閾值A,更新用戶信用度;
[0050] 對于標記正確的用戶群Utnjf;={uu2,…,uj,用戶化的信用度的更新公式為:
[0051]
,t代表迭代次 數(shù),t+1代表下一次迭代;
[0052] 對于標記錯誤的用戶群Ufalse={udu2,…,uj,用戶化的信用度的更新公式為:
[0053]
[0054] 所述的基于眾包主動學習用于檢測異常圖片的方法,優(yōu)選的,所述S3可信分類迭 代算法包括:
[0055] 輸入:算法迭代次數(shù)T;
[0056] 輸出:分類器C ;
[0057]t代表第t次迭代
[0058]S
當前第1頁1 2 3 4 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
维西| 合江县| 海丰县| 新民市| 榆中县| 嵩明县| 山东省| 富平县| 景泰县| 佳木斯市| 桂林市| 永宁县| 互助| 靖边县| 哈巴河县| 白河县| 密山市| 四平市| 宁乡县| 鄂伦春自治旗| 莱芜市| 陆良县| 丰顺县| 满洲里市| 沐川县| 额尔古纳市| 武邑县| 巍山| 平阳县| 沙雅县| 东山县| 宁河县| 神木县| 老河口市| 信丰县| 麻栗坡县| 大安市| 虹口区| 呼伦贝尔市| 黄陵县| 黄浦区|