一種電子設備及數(shù)據(jù)傳輸方法
【專利摘要】本發(fā)明提供一種電子設備及數(shù)據(jù)傳輸方法,涉及網(wǎng)絡應用【技術領域】,能夠減少用戶在進行資源分享時的操作步驟,避免用戶在資源分享時對當前網(wǎng)絡體驗的暫停。該方法包括:當輸出第一內(nèi)容時,采集用戶在瀏覽所述第一內(nèi)容時對應的行為特征,所述第一內(nèi)容為視頻、音頻、圖像或文字中的一項或多項的組合;判斷所述用戶在瀏覽所述第一內(nèi)容時對應的行為特征是否與預設用戶行為特征相匹配;若所述用戶在瀏覽所述第一內(nèi)容時對應的行為特征與所述預設用戶行為特征相匹配,則生成傳輸指令;根據(jù)所述傳輸指令確定目標數(shù)據(jù),并將所述目標數(shù)據(jù)傳輸至第二電子設備。本發(fā)明應用于數(shù)據(jù)傳輸技術。
【專利說明】一種電子設備及數(shù)據(jù)傳輸方法
【技術領域】
[0001]本發(fā)明涉及網(wǎng)絡應用【技術領域】,尤其涉及一種電子設備及數(shù)據(jù)傳輸方法。
【背景技術】
[0002]在現(xiàn)實生活中,當用戶在瀏覽網(wǎng)絡資訊時,往往會因為在瀏覽網(wǎng)絡資訊時發(fā)現(xiàn)有用或者有趣的內(nèi)容,這樣用戶就希望在第一時間通過網(wǎng)絡分享平臺分享給身邊朋友們。
[0003]通常情況下用戶在瀏覽網(wǎng)絡資訊的過程中,當想要分享看到的有用或者有趣的內(nèi)容時,必須先登陸社交網(wǎng)站或者客戶端應用,然后編輯分享信息來完成分享。若分享信息時用戶正在觀看視頻,則需要用戶暫停視頻并截圖,進而登陸社交網(wǎng)站或者客戶端應用,然后編輯分享信息。這樣的操作會打斷當前用戶的網(wǎng)絡體驗,使得用戶分享的樂趣減少積極性降低,發(fā)明人發(fā)現(xiàn)現(xiàn)有技術中存在如下問題:在資源分享時用戶的操作步驟繁瑣,需要用戶停止當前網(wǎng)絡體驗來進行分享操作。
【發(fā)明內(nèi)容】
[0004]本發(fā)明的實施例提供一種電子設備及數(shù)據(jù)傳輸方法,能夠減少用戶在進行資源分享時的操作步驟,避免用戶在資源分享時對當前網(wǎng)絡體驗的暫停。
[0005]為達到上述目的,本發(fā)明的實施例采用如下技術方案:
[0006]第一方面,提供一種數(shù)據(jù)傳輸方法,包括:
[0007]當輸出第一內(nèi)容時,采集用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征,所述第一內(nèi)容為視頻、音頻、圖像或文字中的一項或多項的組合;
[0008]判斷所述用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征是否與預設用戶行為特征相匹配;
[0009]若所述用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征與所述預設用戶行為特征相匹配,則生成傳輸指令;
[0010]根據(jù)所述傳輸指令確定目標數(shù)據(jù),并將所述目標數(shù)據(jù)傳輸至第二電子設備。
[0011]在第一種可能的實現(xiàn)方式中,結合第一方面,所述方法還包括:
[0012]若所述用戶行為特征為用戶表情,則所述采集用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征包括:
[0013]捕捉用戶在瀏覽所述第一內(nèi)容時面部表情反應出的變化,以便將捕捉到的用戶表情與所述預設用戶行為特征中預設的用戶表情相匹配;
[0014]或者,
[0015]若所述用戶行為特征為用戶聲音,則所述采集用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征包括:
[0016]采集用戶在瀏覽所述第一內(nèi)容時用戶聲音反應出的音量高低,以便將采集到的用戶聲音的音量與所述預設用戶行為特征中預設的用戶聲音相匹配;
[0017]或者,[0018]若所述用戶行為特征為用戶肢體動作,則所述采集用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征包括:
[0019]采集用戶在瀏覽所述第一內(nèi)容時用戶的肢體動作反應的動作幅度,以便將采集到的用戶肢體動作的幅度與所述預設用戶行為特征中預設的用戶的肢體動作相匹配。
[0020]在第二種可能的實現(xiàn)方式中,結合第一種可能的實現(xiàn)方式,所述根據(jù)所述傳輸指令確定目標數(shù)據(jù)包括:
[0021]獲取開始采集所述與預設用戶行為特征相匹配的用戶行為特征的第一時刻及獲取所述與預設用戶行為特征相匹配的用戶行為特征后的第二時刻;
[0022]根據(jù)所述傳輸指令將所述第一時刻和所述第二時刻間的第一內(nèi)容作為所述目標數(shù)據(jù)。
[0023]在第三種可能的實現(xiàn)方式中,結合第二種可能的實現(xiàn)方式,所述將所述目標數(shù)據(jù)傳輸至第二電子設備包括:
[0024]將所述匹配的用戶行為特征對應的預設置的評論內(nèi)容關聯(lián)至作為所述目標數(shù)據(jù)的所述第一內(nèi)容處發(fā)布。
[0025]在第四種可能的實現(xiàn)方式中,結合上述任一項所述的方法,所述將所述目標數(shù)據(jù)傳輸至第二電子設備包括:
[0026]若所述第一內(nèi)容存儲于所述第一電子設備,則將為所述目標數(shù)據(jù)對應的用戶行為特征預設的評論內(nèi)容關聯(lián)至所述目標數(shù)據(jù)在所述第一內(nèi)容上對應的位置;
[0027]將包含所述目標數(shù)據(jù)及所述評論內(nèi)容的第一內(nèi)容傳輸至所述第二電子設備。
[0028]在第五種可能的實現(xiàn)方式中,結合上述任一項所述的方法,所述將所述目標數(shù)據(jù)傳輸至第二電子設備包括:
[0029]若所述第一內(nèi)容非存儲于所述第一電子設備,則將為所述目標數(shù)據(jù)對應的用戶行為特征預設的評論內(nèi)容關聯(lián)至所述目標數(shù)據(jù);
[0030]將所述目標數(shù)據(jù)傳輸至所述第二電子設備,并在所述目標位置處發(fā)布所述評論內(nèi)容。
[0031]第二方面,提供一種電子設備,所述設備包括:
[0032]采集單元,用于當輸出第一內(nèi)容時,采集用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征,所述第一內(nèi)容為視頻、音頻、圖像或文字中的一項或多項的組合;
[0033]篩選單元,用于判斷所述用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征是否與預設用戶行為特征相匹配;
[0034]處理單元,用于若所述用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征與所述預設用戶行為特征相匹配,則生成傳輸指令;
[0035]發(fā)送單元,用于根據(jù)所述傳輸指令確定目標數(shù)據(jù),并將所述目標數(shù)據(jù)傳輸至第二電子設備。
[0036]在第一種可能的實現(xiàn)方式中,結合第二方面,所述采集單元還用于:
[0037]若所述用戶行為特征為用戶表情,則所述采集用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征包括:
[0038]捕捉用戶在瀏覽所述第一內(nèi)容時面部表情反應出的變化,以便將捕捉到的用戶表情與所述預設用戶行為特征中預設的用戶表情相匹配;[0039]或者,
[0040]若所述用戶行為特征為用戶聲音,則所述采集用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征包括:
[0041]采集用戶在瀏覽所述第一內(nèi)容時用戶聲音反應出的音量高低,以便將采集到的用戶聲音的音量與所述預設用戶行為特征中預設的用戶聲音相匹配;
[0042]或者,
[0043]若所述用戶行為特征為用戶肢體動作,則所述采集用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征包括:
[0044]采集用戶在瀏覽所述第一內(nèi)容時用戶的肢體動作反應的動作幅度,以便將采集到的用戶肢體動作的幅度與所述預設用戶行為特征中預設的用戶的肢體動作相匹配。
[0045]在第二種可能的實現(xiàn)方式中,結合第一種可能的實現(xiàn)方式,所述發(fā)送單元還包括:
[0046]采集子單元,用于獲取開始采集所述與預設用戶行為特征相匹配的用戶行為特征的第一時刻及獲取所述與預設用戶行為特征相匹配的用戶行為特征第二時刻;
[0047]截取子單元,用于根據(jù)所述傳輸指令將所述第一時刻和所述第二時刻間的第一內(nèi)容作為所述目標數(shù)據(jù)。
[0048]在第三種可能的實現(xiàn)方式中,結合第二種可能的實現(xiàn)方式,所述發(fā)送單元還包括:
[0049]發(fā)送子單元,用于將所述匹配的用戶行為特征對應的預設置的評論內(nèi)容關聯(lián)至作為所述目標數(shù)據(jù)的所述第一內(nèi)容處發(fā)布。
[0050]在第四種可能的實現(xiàn)方式中,結合上述任一項所述的設備,所述設備還包括:
[0051]鏈接單元,用于若所述第一內(nèi)容存儲于所述第一電子設備,則將為所述目標數(shù)據(jù)對應的用戶行為特征預設的評論內(nèi)容關聯(lián)至所述目標數(shù)據(jù)在所述第一內(nèi)容上對應的位置;
[0052]所述鏈接單元,還用于將包含所述目標數(shù)據(jù)及所述評論內(nèi)容的第一內(nèi)容傳輸至所述第二電子設備。
[0053]在第五種可能的實現(xiàn)方式中,結合上述任一項所述的設備,
[0054]所述鏈接單元,還用于若所述第一內(nèi)容非存儲于所述第一電子設備,則將為所述目標數(shù)據(jù)對應的用戶行為特征預設的評論內(nèi)容關聯(lián)至所述目標數(shù)據(jù);
[0055]所述鏈接單元,還用于將所述目標數(shù)據(jù)傳輸至所述第二電子設備,并在所述目標位置處發(fā)布所述評論內(nèi)容。
[0056]本發(fā)明實施例提供的電子設備及數(shù)據(jù)傳輸方法,通過第一電子設備采集當前用戶在瀏覽第一內(nèi)容時的用戶行為特征,并與預設用戶行為特征進行匹配,根據(jù)匹配的用戶行為特征生成的傳輸指令將目標數(shù)據(jù)傳輸至第二電子設備,解決了用戶在進行資源分享時繁瑣的操作步驟,避免用戶在資源分享時對當前網(wǎng)絡體驗的暫停。
【專利附圖】
【附圖說明】
[0057]為了更清楚地說明本發(fā)明實施例或現(xiàn)有技術中的技術方案,下面將對實施例或現(xiàn)有技術描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本發(fā)明的一些實施例,對于本領域普通技術人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)這些附圖獲得其他的附圖。
[0058]圖1為本發(fā)明實施例提供的一種數(shù)據(jù)傳輸方法的流程示意圖;
[0059]圖2為本發(fā)明實施例提供的一種電子設備的結構示意圖;
[0060]圖3為本發(fā)明實施例提供的另一種電子設備的結構示意圖;
[0061]圖4為本發(fā)明實施例提供的又一種電子設備的結構示意圖。
【具體實施方式】
[0062]下面將結合本發(fā)明實施例中的附圖,對本發(fā)明實施例中的技術方案進行清楚、完整地描述,顯然,所描述的實施例僅僅是本發(fā)明一部分實施例,而不是全部的實施例?;诒景l(fā)明中的實施例,本領域普通技術人員在沒有做出創(chuàng)造性勞動前提下所獲得的所有其他實施例,都屬于本發(fā)明保護的范圍。
[0063]本發(fā)明實施例提供一種數(shù)據(jù)傳輸方法,參照圖1所示,包括以下流程:
[0064]101、當?shù)谝浑娮釉O備輸出第一內(nèi)容時,米集用戶在瀏覽該第一內(nèi)容時對應的行為特征。
[0065]其中,該第一內(nèi)容為視頻、音頻、圖像或文字中的一項或多項的組合;該用戶行為特征包括用戶面部表情、用戶肢體動作或用戶聲音。
[0066]具體的,第一電子設備采集用戶特征信息時,第一電子設備通過攝像頭、攝像機、麥克風或者紅外攝像機等輸入設備采集用戶的表情、用戶的肢體動作(如手勢)、用戶的聲音等用戶特征信息,其中第一電子設備采集的用戶特征信息可以為。
[0067]具體示例包括:
[0068]101a、若用戶行為特征為用戶表情,則采集用戶在瀏覽第一內(nèi)容時對應的用戶行為特征。
[0069]具體的,步驟IOla的實施方式為:
[0070]捕捉用戶在瀏覽該第一內(nèi)容時用戶的面部表情反應出的變化,以便在后續(xù)的步驟102中將捕捉到的用戶表情與預設用戶行為特征中預設的用戶表情相匹配;
[0071]第一電子設備通過攝像頭采集用戶的面部表情,當用戶在觀看視頻時,若發(fā)現(xiàn)有用或者有趣的視頻橋段,則用戶的面部表情會發(fā)生變化,例如微笑或者面部其他的部位發(fā)生變化,該過程即采用攝像頭通過捕捉用戶的面部表情的變化,進行面部表情采集。
[0072]或者,
[0073]101b、若用戶行為特征為用戶聲音,則采集用戶在瀏覽第一內(nèi)容時對應的用戶行為特征。
[0074]具體的,步驟IOlb的實施方式為:
[0075]采集用戶在瀏覽該第一內(nèi)容時用戶的聲音反應出的音量高低,以便在后續(xù)的步驟102中將采集到的用戶聲音的音量與預設用戶行為特征中預設的用戶聲音相匹配;
[0076]第一電子設備通過麥克風采集用戶的聲音,當用戶在觀看視頻時,若發(fā)現(xiàn)有用或者有趣的視頻橋段,則用戶的聲音會發(fā)生變化,例如高呼“好看”,這里麥克風通過捕捉用戶聲音的變化,進行聲音采集。
[0077]或者,[0078]101c、若用戶行為特征為用戶肢體動作,則采集用戶在瀏覽第一內(nèi)容時對應的用戶行為特征。
[0079]具體的,步驟IOlc的實施方式為:
[0080]采集用戶在瀏覽該第一內(nèi)容時用戶的肢體動作反應出的動作幅度,以便在后續(xù)的步驟102中將采集到的用戶肢體動作的幅度與預設用戶行為特征中預設的用戶的肢體動作相匹配。
[0081]第一電子設備通過攝像頭采集用戶的肢體動作,當用戶在觀看視頻時,若發(fā)現(xiàn)有用或者有趣的視頻橋段,則用戶的肢體動作會發(fā)生變化,例如揮舞雙臂,這里攝像頭通過捕捉用戶肢體動作的變化,進行動作采集。
[0082]102、第一電子設備判斷用戶在瀏覽第一內(nèi)容時對應的用戶行為特征是否與預設用戶行為特征相匹配。
[0083]這里第一電子設備通過攝像頭(或麥克風)捕捉用戶面部表情(用戶聲音或肢體動作)的變化,將采集到的用戶的面部表情與預先存儲的面部表情進行匹配。
[0084]103、若用戶在瀏覽第一內(nèi)容時對應的用戶行為特征與預設用戶行為特征相匹配,則生成傳輸指令。
[0085]這里以第一電子設備通過攝像頭采集用戶的面部表情為例進行說明,具體的,攝像頭將采集到的多個用戶的面部表情存儲在第一電子設備的存儲裝置中,以便當用戶在進行第一內(nèi)容瀏覽過程時第一電子設備通過攝像頭采集當前用戶表情后能夠與預先存儲在第一電子設備的存儲裝置中采集的多個用戶的面部表情進行匹配。
[0086]104、第一電子設備根據(jù)傳輸指令確定目標數(shù)據(jù),并將目標數(shù)據(jù)傳輸至第二電子設備。
[0087]其中具體為:
[0088]104a、第一電子設備獲取開始采集與預設用戶行為特征相匹配的用戶行為特征的第一時刻及獲取與該預設用戶行為特征相匹配的用戶行為特征第二時刻。
[0089]這里通過對采集用戶行為特征發(fā)生變化的時間進行記錄,得到采集用戶行為特征發(fā)生變化時的第一時刻及第二時刻。具體示例為,用戶在瀏覽視頻時,當發(fā)現(xiàn)有趣或者有用的該段視頻中的一段時,用戶面部表情開始發(fā)生變化,將該用戶面部表情開始發(fā)生變化的時刻記錄為第一時刻,將該用戶當前面部表情消失時的時刻記錄為第二時刻。
[0090]104b、第一電子設備根據(jù)傳輸指令將該第一時刻和第二時刻間的第一內(nèi)容作為目標數(shù)據(jù)。
[0091]根據(jù)步驟104a所述的方法,由于用戶在瀏覽第一內(nèi)容時用戶的行為特征會發(fā)生變化,此時則由第一電子設備通過采集當前用戶行為特征,將對應于該用戶行為特征的第一內(nèi)容的部分內(nèi)容進行截取,同時將截取的該部分內(nèi)容作為目標數(shù)據(jù)。
[0092]具體示例為,第一內(nèi)容以視頻為例,用戶行為特征以用戶面部表情為例,當用戶瀏覽視頻發(fā)現(xiàn)有趣或有用的內(nèi)容時,面部表情會發(fā)生變化(例如:微笑),此時則由第一電子設備通過攝像頭采集此刻用戶的面部表情,并記錄用戶表情發(fā)生變化的起始時間與結束時間,同時將對應于這段時間的視頻內(nèi)容截取出來作為目標數(shù)據(jù)。
[0093]104c、第一電子設備將該匹配的用戶行為特征對應的預設置的評論內(nèi)容關聯(lián)至作為目標數(shù)據(jù)的第一內(nèi)容處發(fā)布。[0094]這里根據(jù)采集到的用戶行為特征設置對應的預設置的評論內(nèi)容,并將該評論內(nèi)容關聯(lián)至目標數(shù)據(jù)處發(fā)布。具體示例為,當采集到的用戶行為特征為用戶的面部表情時,例如:微笑,對應評論內(nèi)容為“太有趣了”,或者采集到的用戶的面部表情大笑時,對應的評論內(nèi)容為“太刺激了”,當然也可以是指不同的表情對應相同的評論內(nèi)容,即這兩種表情均可以對應評論內(nèi)容:“太有趣了”。然后將設置好的對應于至少一個用戶特征信息的評論內(nèi)容存儲在電子設備的存儲裝置中。
[0095]其中將對應該用戶行為特征的評論內(nèi)容發(fā)布到對應用戶行為特征的第一內(nèi)容的部分內(nèi)容處。
[0096]進一步,可選的,若第一內(nèi)容存儲于第一電子設備,則將為目標數(shù)據(jù)對應的用戶行為特征預設的評論內(nèi)容關聯(lián)至目標數(shù)據(jù)在第一內(nèi)容上對應的位置;并將包含目標數(shù)據(jù)及評論內(nèi)容的第一內(nèi)容傳輸至第二電子設備。
[0097]這里第一內(nèi)容可以為第一電子設備的本地內(nèi)容,第一電子設備可以根據(jù)采集到的用戶行為特征將預先設置好的評論內(nèi)容對應至第一內(nèi)容處。具體示例為:第一內(nèi)容以視頻為例,用戶行為特征以面部表情為例,即用戶在瀏覽第一電子設備的本地視頻時,當用戶發(fā)現(xiàn)該視頻中的一段視頻內(nèi)容很有趣時,第一電子設備則通過攝像頭捕捉用戶當前瀏覽該視頻有趣部分時的面部表情,將該面部表情與預設置的用戶行為特征進行匹配,若匹配成功,則將該面部表情對應的預設置的評論內(nèi)容關聯(lián)至該視頻有趣的部分處,并將包含評論內(nèi)容的有趣部分內(nèi)容傳輸至第二電子設備。
[0098]或者,
[0099]若第一內(nèi)容非存儲于第一電子設備,則將為目標數(shù)據(jù)對應的用戶行為特征預設的評論內(nèi)容關聯(lián)至目標數(shù)據(jù);
[0100]將目標數(shù)據(jù)傳輸至第二電子設備,并在目標位置處發(fā)布評論內(nèi)容。
[0101]這里第一內(nèi)容沒有存儲于第一電子設備中,具體為,第一內(nèi)容以網(wǎng)絡視頻為例,用戶在瀏覽網(wǎng)絡視頻時,當用戶發(fā)現(xiàn)該視頻中的一段視頻內(nèi)容很有趣時,第一電子設備則通過攝像頭捕捉用戶當前瀏覽該視頻有趣部分時的面部表情,并將該面部表情與預設置的用戶行為特征進行匹配,若匹配成功,則將該面部表情對應的預設置的評論內(nèi)容關聯(lián)到網(wǎng)絡視頻有趣的部分處,以便后來當用戶瀏覽到該視頻有趣部分時對應有趣的部分顯示該評論內(nèi)容。
[0102]本發(fā)明實施例提供的數(shù)據(jù)傳輸方法,通過第一電子設備采集當前用戶在瀏覽第一內(nèi)容時的用戶行為特征,并與預設用戶行為特征進行匹配,根據(jù)匹配的用戶行為特征生成的傳輸指令將目標數(shù)據(jù)傳輸至第二電子設備,解決了用戶在進行資源分享時繁瑣的操作步驟,避免用戶在資源分享時對當前網(wǎng)絡體驗的暫停。
[0103]本發(fā)明實施例提供一種電子設備2,參照圖2所示,包括:采集單元21,篩選單元22,處理單元23和發(fā)送單元24,其中,
[0104]采集單元21,用于當輸出第一內(nèi)容時,采集用戶在瀏覽第一內(nèi)容時對應的用戶行為特征,該第一內(nèi)容為視頻、音頻、圖像或文字中的一項或多項的組合;
[0105]篩選單元22,用于判斷用戶在瀏覽第一內(nèi)容時對應的用戶行為特征是否與預設用戶行為特征相匹配;
[0106]處理單元23,用于若用戶在瀏覽第一內(nèi)容時對應的用戶行為特征與預設用戶行為特征相匹配,則生成傳輸指令;
[0107]發(fā)送單元24,用于根據(jù)該傳輸指令確定目標數(shù)據(jù),并將該目標數(shù)據(jù)傳輸至第二電子設備。
[0108]可選的,采集單元21具體用于:
[0109]若用戶行為特征為用戶表情,則采集用戶在瀏覽第一內(nèi)容時對應的用戶行為特征包括:
[0110]捕捉用戶在瀏覽第一內(nèi)容時用戶的面部表情反應出的變化,以便將捕捉到的用戶表情與預設用戶行為特征中預設的用戶表情相匹配;
[0111]或者,
[0112]若用戶行為特征為用戶聲音,則采集用戶在瀏覽第一內(nèi)容時對應的用戶行為特征包括:
[0113]采集用戶在瀏覽第一內(nèi)容時用戶的聲音反應出的音量高低,以便將采集到的用戶聲音的音量與預設用戶行為特征中預設的用戶聲音相匹配;
[0114]或者,
[0115]若用戶行為特征為用戶肢體動作,則采集用戶在瀏覽第一內(nèi)容時對應的用戶行為特征包括:
[0116]采集用戶在瀏覽所述第一內(nèi)容時用戶的肢體動作反應出的動作幅度,以便將采集到的用戶肢體動作的幅度與所述預設用戶行為特征中預設的用戶的肢體動作相匹配。
[0117]可選的,參照圖3所示,發(fā)送單元24還包括:采集子單元241,截取子單元242和發(fā)送子單兀243,其中,
[0118]采集子單元241,用于獲取開始采集與預設用戶行為特征相匹配的用戶行為特征的第一時刻及獲取與預設用戶行為特征相匹配的用戶行為特征第二時刻;
[0119]截取子單元242,用于根據(jù)傳輸指令將第一時刻和第二時刻間的第一內(nèi)容作為目標數(shù)據(jù);
[0120]發(fā)送子單元243,用于將該匹配的用戶行為特征對應的預設置的評論內(nèi)容關聯(lián)至作為目標數(shù)據(jù)的第一內(nèi)容處發(fā)布。
[0121]可選的,參照圖4所示,本發(fā)明實施例提供的電子設備2還包括:鏈接單元25,其中,
[0122]鏈接單元25,用于若第一內(nèi)容存儲于第一電子設備,則將為目標數(shù)據(jù)對應的用戶行為特征預設的評論內(nèi)容關聯(lián)至目標數(shù)據(jù)在第一內(nèi)容上對應的位置;并將包含目標數(shù)據(jù)及評論內(nèi)容的第一內(nèi)容傳輸至第二電子設備。
[0123]或者,
[0124]用于若第一內(nèi)容非存儲于第一電子設備,則將為目標數(shù)據(jù)對應的用戶行為特征預設的評論內(nèi)容關聯(lián)至目標數(shù)據(jù);并將目標數(shù)據(jù)傳輸至第二電子設備,并在目標位置處發(fā)布評論內(nèi)容。
[0125]本發(fā)明實施例提供的電子設備,通過第一電子設備采集當前用戶在瀏覽第一內(nèi)容時的用戶行為特征,并與預設用戶行為特征進行匹配,根據(jù)匹配的用戶行為特征生成的傳輸指令將目標數(shù)據(jù)傳輸至第二電子設備,解決了用戶在進行資源分享時繁瑣的操作步驟,避免用戶在資源分享時對當前網(wǎng)絡體驗的暫停。[0126]本領域普通技術人員可以理解:實現(xiàn)上述方法實施例的全部或部分步驟可以通過程序指令相關的硬件來完成,前述的程序可以存儲于一計算機可讀取存儲介質中,該程序在執(zhí)行時,執(zhí)行包括上述方法實施例的步驟;而前述的存儲介質包括:R0M、RAM、磁碟或者光盤等各種可以存儲程序代碼的介質。
[0127]以上所述,僅為本發(fā)明的【具體實施方式】,但本發(fā)明的保護范圍并不局限于此,任何熟悉本【技術領域】的技術人員在本發(fā)明揭露的技術范圍內(nèi),可輕易想到變化或替換,都應涵蓋在本發(fā)明的保護范圍之內(nèi)。因此,本發(fā)明的保護范圍應以所述權利要求的保護范圍為準。
【權利要求】
1.一種數(shù)據(jù)傳輸方法,應用于第一電子設備,所述第一電子設備和第二電子設備數(shù)據(jù)連接,其特征在于,所述方法包括: 當輸出第一內(nèi)容時,采集用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征,所述第一內(nèi)容為視頻、音頻、圖像或文字中的一項或多項的組合; 判斷所述用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征是否與預設用戶行為特征相匹配; 若所述用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征與所述預設用戶行為特征相匹配,則生成傳輸指令; 根據(jù)所述傳輸指令確定目標數(shù)據(jù),并將所述目標數(shù)據(jù)傳輸至第二電子設備。
2.根據(jù)權利要求1所述的方法,其特征在于, 若所述用戶行為特征為用戶表情,則所述采集用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征包括: 捕捉用戶在瀏覽所述第一內(nèi)容時用戶的面部表情反應出的變化,以便將捕捉到的用戶表情與所述預設用戶行為特征中預設的用戶表情相匹配; 或者, 若所述用戶行為特征為用戶聲音,則所述采集用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征包括: 采集用戶在瀏覽所述第一內(nèi)容時用戶的聲音反應出的音量高低,以便將采集到的用戶聲音的音量與所述預設用戶行為特征中預設的用戶聲音相匹配;` 或者, 若所述用戶行為特征為用戶肢體動作,則所述采集用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征包括: 采集用戶在瀏覽所述第一內(nèi)容時用戶的肢體動作反應出的動作幅度,以便將采集到的用戶肢體動作的幅度與所述預設用戶行為特征中預設的用戶的肢體動作相匹配。
3.根據(jù)權利要求1所述的方法,其特征在于,所述根據(jù)所述傳輸指令確定目標數(shù)據(jù)包括: 獲取開始采集所述與預設用戶行為特征相匹配的用戶行為特征的第一時刻及獲取所述與預設用戶行為特征相匹配的用戶行為特征后的第二時刻; 根據(jù)所述傳輸指令將所述第一時刻和所述第二時刻間的第一內(nèi)容作為所述目標數(shù)據(jù)。
4.根據(jù)權利要求3所述的方法,其特征在于,所述將所述目標數(shù)據(jù)傳輸至第二電子設備,還包括: 將所述匹配的用戶行為特征對應的預設置的評論內(nèi)容關聯(lián)至作為所述目標數(shù)據(jù)的所述第一內(nèi)容處發(fā)布。
5.根據(jù)權利要求1~3任一項所述的方法,其特征在于,所述將所述目標數(shù)據(jù)傳輸至第二電子設備包括: 若所述第一內(nèi)容存儲于所述第一電子設備,則將為所述目標數(shù)據(jù)對應的用戶行為特征預設的評論內(nèi)容關聯(lián)至所述目標數(shù)據(jù)在所述第一內(nèi)容上對應的位置; 將包含所述目標數(shù)據(jù)及所述評論內(nèi)容的第一內(nèi)容傳輸至所述第二電子設備。
6.根據(jù)權利要求1~3任一項所述的方法,其特征在于,所述將所述目標數(shù)據(jù)傳輸至第二電子設備包括: 若所述第一內(nèi)容非存儲于所述第一電子設備,則將為所述目標數(shù)據(jù)對應的用戶行為特征預設的評論內(nèi)容關聯(lián)至所述目標數(shù)據(jù); 將所述目標數(shù)據(jù)傳輸至所述第二電子設備,并在所述目標位置處發(fā)布所述評論內(nèi)容。
7.一種電子設備,應用于數(shù)據(jù)傳輸,其特征在于,所述設備包括: 采集單元,用于當輸出第一內(nèi)容時,采集用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征,所述第一內(nèi)容為視頻、音頻、圖像或文字中的一項或多項的組合; 篩選單元,用于判斷所述用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征是否與預設用戶行為特征相匹配; 處理單元,用于若所述用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征與所述預設用戶行為特征相匹配,則生成傳輸指令; 發(fā)送單元,用于根據(jù)所述傳輸指令確定目標數(shù)據(jù),并將所述目標數(shù)據(jù)傳輸至第二電子設備。
8.根據(jù)權利要求7所述的設備,其特征在于,所述采集單元具體用于: 若所述用戶行為特征為用戶表情,則所述采集用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征包括: 捕捉用戶在瀏覽所述第一內(nèi)容時面部表情反應出的變化,以便將捕捉到的用戶表情與所述預設用戶行為特征中預設`的用戶表情相匹配; 或者, 若所述用戶行為特征為用戶聲音,則所述采集用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征包括: 采集用戶在瀏覽所述第一內(nèi)容時用戶聲音反應出的音量高低,以便將采集到的用戶聲音的音量與所述預設用戶行為特征中預設的用戶聲音相匹配; 或者, 若所述用戶行為特征為用戶肢體動作,則所述采集用戶在瀏覽所述第一內(nèi)容時對應的用戶行為特征包括: 采集用戶在瀏覽所述第一內(nèi)容時用戶的肢體動作反應的動作幅度,以便將采集到的用戶肢體動作的幅度與所述預設用戶行為特征中預設的用戶的肢體動作相匹配。
9.根據(jù)權利要求7所述的設備,其特征在于,所述發(fā)送單元還包括: 采集子單元,用于獲取開始采集所述與預設用戶行為特征相匹配的用戶行為特征的第一時刻及獲取所述與預設用戶行為特征相匹配的用戶行為特征第二時刻; 截取子單元,用于根據(jù)所述傳輸指令將所述第一時刻和所述第二時刻間的第一內(nèi)容作為所述目標數(shù)據(jù)。
10.跟好權利要求9所述的設備,其特征在于,所述發(fā)送單元還包括: 發(fā)送子單元,用于將所述匹配的用戶行為特征對應的預設置的評論內(nèi)容關聯(lián)至作為所述目標數(shù)據(jù)的所述第一內(nèi)容處發(fā)布。
11.根據(jù)權利要求7~9任一項所述的設備,其特征在于,所述設備還包括: 鏈接單元,用于若所述第一內(nèi)容存儲于所述第一電子設備,則將為所述目標數(shù)據(jù)對應的用戶行為特征預設的評論內(nèi)容關聯(lián)至所述目標數(shù)據(jù)在所述第一內(nèi)容上對應的位置;所述鏈接單元,還用于將包含所述目標數(shù)據(jù)及所述評論內(nèi)容的第一內(nèi)容傳輸至所述第二電子設備。
12.根據(jù)權利要求7~9任一項所述的設備,其特征在于, 所述鏈接單元,還用于若所述第一內(nèi)容非存儲于所述第一電子設備,則將為所述目標數(shù)據(jù)對應的用戶行為特征預設的評論內(nèi)容關聯(lián)至所述目標數(shù)據(jù); 所述鏈接單元,還用于將所述目標數(shù)據(jù)傳輸至所述第二電子設備,并在所述目標位置處發(fā)布所述評論內(nèi)容。`
【文檔編號】H04L12/58GK103873492SQ201210525742
【公開日】2014年6月18日 申請日期:2012年12月7日 優(yōu)先權日:2012年12月7日
【發(fā)明者】曹璐, 武亞強 申請人:聯(lián)想(北京)有限公司