欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于人工智能的處理搜索結(jié)果方法和裝置與流程

文檔序號:12124152閱讀:499來源:國知局
基于人工智能的處理搜索結(jié)果方法和裝置與流程

本申請涉及自然語言處理技術(shù)領(lǐng)域,尤其涉及一種基于人工智能的獲取搜索方法和裝置。



背景技術(shù):

人工智能(Artificial Intelligence),英文縮寫為AI。它是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。人工智能是計(jì)算機(jī)科學(xué)的一個分支,它企圖了解智能的實(shí)質(zhì),并生產(chǎn)出一種新的能以人類智能相似的方式做出反應(yīng)的智能機(jī)器,該領(lǐng)域的研究包括機(jī)器人、語言識別、圖像識別、自然語言處理和專家系統(tǒng)等。

當(dāng)用戶使用搜索引擎搜索某一個查詢時,總是希望輸入一個簡單的查詢(query),得到與自己意圖最匹配的搜索結(jié)果,這往往導(dǎo)致輸入的是相同的query,不同的用戶可能查找的是不同的信息。但是,目前的搜索結(jié)果不能很好的滿足多樣化等需求。



技術(shù)實(shí)現(xiàn)要素:

本申請旨在至少在一定程度上解決相關(guān)技術(shù)中的技術(shù)問題之一。

為此,本申請的一個目的在于提出一種基于人工智能的處理搜索結(jié)果的方法,該方法能夠擴(kuò)展搜索結(jié)果具有的特征,為搜索結(jié)果的多樣性等需求提供基礎(chǔ)。

本申請的另一個目的在于提出一種基于人工智能的處理搜索結(jié)果的裝置。

為達(dá)到上述目的,本申請第一方面實(shí)施例提出的基于人工智能的處理搜索結(jié)果的方法,包括:接收查詢,并獲取與所述查詢對應(yīng)的搜索結(jié)果;獲取多個語言模型,其中,每個語言模型采用一種來源的數(shù)據(jù)進(jìn)行訓(xùn)練后生成;分別采用每個語言模型對所述搜索結(jié)果進(jìn)行打分,以及根據(jù)打分結(jié)果確定所述搜索結(jié)果的來源。

本申請第一方面實(shí)施例提出的基于人工智能的處理搜索結(jié)果的方法,通過根據(jù)語言模型對搜索結(jié)果進(jìn)行打分,并且語言模型是根據(jù)不同來源的數(shù)據(jù)訓(xùn)練生成的,可以根據(jù)打分結(jié)果確定搜索結(jié)果的來源,為滿足搜索結(jié)果多樣化等需求提供基礎(chǔ)。

為達(dá)到上述目的,本申請第二方面實(shí)施例提出的基于人工智能的處理搜索結(jié)果的裝置,包括:第一獲取模塊,用于接收查詢,并獲取與所述查詢對應(yīng)的搜索結(jié)果;第二獲取模塊,用于獲取多個語言模型,其中,每個語言模型采用一種來源的數(shù)據(jù)進(jìn)行訓(xùn)練后生成;來源確定模塊,用于分別采用每個語言模型對所述搜索結(jié)果進(jìn)行打分,以及根據(jù)打分結(jié)果確定所述搜索結(jié)果的來源。

本申請第二方面實(shí)施例提出的基于人工智能的處理搜索結(jié)果的裝置,通過根據(jù)語言模型對搜索結(jié)果進(jìn)行打分,并且語言模型是根據(jù)不同來源的數(shù)據(jù)訓(xùn)練生成的,可以根據(jù)打分結(jié)果確定搜索結(jié)果的來源,為滿足搜索結(jié)果多樣化等需求提供基礎(chǔ)。

本申請實(shí)施例還提出了一種用于基于人工智能的處理搜索結(jié)果的裝置,包括:處理器;用于存儲處理器可執(zhí)行指令的存儲器;其中,所述處理器被配置為:接收查詢,并獲取與所述查詢對應(yīng)的搜索結(jié)果;獲取多個語言模型,其中,每個語言模型采用一種來源的數(shù)據(jù)進(jìn)行訓(xùn)練后生成;分別采用每個語言模型對所述搜索結(jié)果進(jìn)行打分,以及根據(jù)打分結(jié)果確定所述搜索結(jié)果的來源。

本申請實(shí)施例還提出了一種非臨時性計(jì)算機(jī)可讀存儲介質(zhì),當(dāng)所述存儲介質(zhì)中的指令由終端的處理器被執(zhí)行時,使得終端能夠執(zhí)行一種基于人工智能的處理搜索結(jié)果的方法,所述方法包括:接收查詢,并獲取與所述查詢對應(yīng)的搜索結(jié)果;獲取多個語言模型,其中,每個語言模型采用一種來源的數(shù)據(jù)進(jìn)行訓(xùn)練后生成;分別采用每個語言模型對所述搜索結(jié)果進(jìn)行打分,以及根據(jù)打分結(jié)果確定所述搜索結(jié)果的來源。

本申請實(shí)施例還提出了一種計(jì)算機(jī)程序產(chǎn)品,當(dāng)所述計(jì)算機(jī)程序產(chǎn)品中的指令處理器執(zhí)行時,執(zhí)行一種基于人工智能的處理搜索結(jié)果的方法,所述方法包括:接收查詢,并獲取與所述查詢對應(yīng)的搜索結(jié)果;獲取多個語言模型,其中,每個語言模型采用一種來源的數(shù)據(jù)進(jìn)行訓(xùn)練后生成;分別采用每個語言模型對所述搜索結(jié)果進(jìn)行打分,以及根據(jù)打分結(jié)果確定所述搜索結(jié)果的來源。

本申請附加的方面和優(yōu)點(diǎn)將在下面的描述中部分給出,部分將從下面的描述中變得明顯,或通過本申請的實(shí)踐了解到。

附圖說明

本申請上述的和/或附加的方面和優(yōu)點(diǎn)從下面結(jié)合附圖對實(shí)施例的描述中將變得明顯和容易理解,其中:

圖1是本申請一個實(shí)施例提出的基于人工智能的處理搜索結(jié)果的方法的流程示意圖;

圖2是本申請實(shí)施例中根據(jù)多個語言模型確定當(dāng)前文本的來源的示意圖;

圖3是本申請實(shí)施例中一種語言模型的示意圖;

圖4是本申請另一個實(shí)施例提出的基于人工智能的處理搜索結(jié)果的方法的流程示意圖;

圖5是本申請實(shí)施例中采用語言模型對當(dāng)前文本進(jìn)行前向計(jì)算的結(jié)構(gòu)圖;

圖6是本申請實(shí)施例中采用的一種非線性激活函數(shù)的曲線圖;

圖7是本申請實(shí)施例中采用語言模型預(yù)測下一個詞出現(xiàn)概率的示意圖;

圖8是本申請一個實(shí)施例提出的基于人工智能的處理搜索結(jié)果的裝置的結(jié)構(gòu)示意圖;

圖9是本申請另一個實(shí)施例提出的基于人工智能的處理搜索結(jié)果的裝置的結(jié)構(gòu)示意圖。

具體實(shí)施方式

下面詳細(xì)描述本申請的實(shí)施例,所述實(shí)施例的示例在附圖中示出,其中自始至終相同或類似的標(biāo)號表示相同或類似的模塊或具有相同或類似功能的模塊。下面通過參考附圖描述的實(shí)施例是示例性的,僅用于解釋本申請,而不能理解為對本申請的限制。相反,本申請的實(shí)施例包括落入所附加權(quán)利要求書的精神和內(nèi)涵范圍內(nèi)的所有變化、修改和等同物。

圖1是本申請一個實(shí)施例提出的基于人工智能的處理搜索結(jié)果的方法的流程示意圖。

如圖1所示,本實(shí)施例包括以下步驟:

S11:接收查詢,并獲取與所述查詢對應(yīng)的搜索結(jié)果。

例如,用戶在搜索引擎中以文本、語音等形式輸入查詢(query),搜索引擎接收到用戶輸入的查詢后,可以從數(shù)據(jù)庫或者互聯(lián)網(wǎng)上獲取與query相關(guān)的文本、圖片等內(nèi)容作為查詢對應(yīng)的搜索結(jié)果。具體的獲取與query相關(guān)的內(nèi)容可以采用各種已有或者將來出現(xiàn)的技術(shù)實(shí)現(xiàn)。

S12:獲取多個語言模型,其中,每個語言模型采用一種來源的數(shù)據(jù)進(jìn)行訓(xùn)練后生成。

其中,語言模型可以是預(yù)先訓(xùn)練生成的,從而在接收到query后,獲取已有的語言模型。

在訓(xùn)練語言模型時,可以收集各個來源的數(shù)據(jù),每個來源的數(shù)據(jù)組成一個訓(xùn)練數(shù)據(jù)集,同一個來源的數(shù)據(jù)輸入到同一個語言模型中訓(xùn)練,有幾個搜索結(jié)果來源就對應(yīng)幾個語言模型,此處假設(shè)有n個數(shù)據(jù)來源,則訓(xùn)練生成n個語言模型。

上述的不同來源可以具體是指不同的門戶網(wǎng)站,從而將來自不同門戶網(wǎng)站的數(shù)據(jù)作為不同來源的數(shù)據(jù)。

語言模型可以具體是深度神經(jīng)網(wǎng)絡(luò)模型,針對每個語言模型,可以用收集的對應(yīng)來源的訓(xùn)練數(shù)據(jù)集,得到深度神經(jīng)網(wǎng)絡(luò)的參數(shù),從而確定對應(yīng)的語言模型。具體的訓(xùn)練生成語言模型的流程可以參見后續(xù)描述。

S13:分別采用每個語言模型對所述搜索結(jié)果進(jìn)行打分,以及根據(jù)打分結(jié)果確定所述搜索結(jié)果的來源。

對應(yīng)每個搜索結(jié)果,可以獲取該搜索結(jié)果中的預(yù)設(shè)內(nèi)容,例如,可以獲取搜索結(jié)果包含的整個文本。假設(shè)每個搜索結(jié)果包含的整個文本稱為當(dāng)前文本,如圖2所示,對應(yīng)每個當(dāng)前文本,將當(dāng)前文本分別輸入到不同來源的數(shù)據(jù)訓(xùn)練生成的語言模型(假設(shè)共有n個語言模型)中,并分別采用每個語言模型對當(dāng)前文本進(jìn)行打分后,可以得到n個得分,將得分表明當(dāng)前文本在語言模型上概率最高的語言模型對應(yīng)的來源確定為搜索結(jié)果的來源。

進(jìn)一步的,在確定出搜索結(jié)果的來源后,可以為搜索結(jié)果設(shè)置對應(yīng)的來源標(biāo)簽,將來源標(biāo)簽作為搜索結(jié)果的一個特征,依據(jù)該來源標(biāo)簽對搜索結(jié)果進(jìn)行相關(guān)處理,例如根據(jù)來源標(biāo)簽對搜索結(jié)果進(jìn)行排序,以豐富搜索結(jié)果的多樣性,使得同一個查詢對應(yīng)的搜索結(jié)果來自不同的網(wǎng)站等不同來源。

具體的,在上述根據(jù)語言模型對當(dāng)前文本進(jìn)行打分時,可以是先根據(jù)語言模型對當(dāng)前文本包含的詞進(jìn)行打分,再根據(jù)詞對應(yīng)的得分計(jì)算出當(dāng)前文本的得分。上述的語言模型可以具體是深度神經(jīng)網(wǎng)絡(luò)模型。以圖3所示的語言模型為例,對應(yīng)當(dāng)前文本包含的每一個詞,可以先確定該詞對應(yīng)的詞向量,如圖3所示,詞向量分別用x1、x2、…、xT表示;再將詞向量作為語言模型的輸入,經(jīng)過語言模型的處理后,可以得到語言模型的輸出P1、P2、…、PT,這些輸出P1、P2、…、PT即是當(dāng)前文本包含的詞的得分,之后可以根據(jù)這這些詞的得分計(jì)算出當(dāng)前文本的得分,再根據(jù)得分確定出相應(yīng)的來源。具體的根據(jù)詞的得分計(jì)算當(dāng)前文本的得分的流程可以參見后續(xù)描述。

本實(shí)施例中,通過根據(jù)語言模型對搜索結(jié)果進(jìn)行打分,并且語言模型是根據(jù)不同來源的數(shù)據(jù)訓(xùn)練生成的,可以根據(jù)打分結(jié)果確定搜索結(jié)果的來源,為滿足搜索結(jié)果多樣化等需求提供基礎(chǔ)。

圖4是本申請另一個實(shí)施例提出的基于人工智能的處理搜索結(jié)果的方法的流程示意圖。

如圖4所示,本實(shí)施例的方法包括:

S41:獲取不同來源的數(shù)據(jù),并將每個來源的數(shù)據(jù)組成一個訓(xùn)練數(shù)據(jù)集。

其中,可以從不同的門戶網(wǎng)站收集數(shù)據(jù),作為不同來源的數(shù)據(jù),以及可以將來自同一個門戶網(wǎng)站的數(shù)據(jù)組成一個訓(xùn)練數(shù)據(jù)集。

S42:采用同一個訓(xùn)練數(shù)據(jù)集的數(shù)據(jù)分別進(jìn)行訓(xùn)練,生成多個語言模型。

不同來源的數(shù)據(jù),其句法、語義構(gòu)成不同,語言模型可以記錄訓(xùn)練數(shù)據(jù)中的語法、句法、語義信息,因此可以訓(xùn)練出跟訓(xùn)練數(shù)據(jù)相關(guān)的不同的語言模型。原則上,有幾個來源就訓(xùn)練幾個語言模型,不同來源的數(shù)據(jù)用于訓(xùn)練不同的語言模型。

語言模型形式化的描述就是給定一個字符串,看它是自然語言的概率P(w1,w2,…,wt)。W1到Wt依次表示這句話中的各個詞。P(w1,w2,…,wt)=P(w1)×P(w2|w1)×P(w3|w1,w2)×…×P(wt|w1,w2,…,wt_1)。常用的語言模型都是在近似地求P(wt|w1,w2,…,wt_1)。比如n-gram模型就是用P(wt|wt_n+1,…,wt-1)近似表示前者。神經(jīng)網(wǎng)絡(luò)語言模型就是將前面已出現(xiàn)的詞表示到抽象空間中,然后用已出現(xiàn)的詞的抽象表示預(yù)測下一個詞出現(xiàn)的概率。此處,可以選擇不同的深度神經(jīng)網(wǎng)絡(luò),本發(fā)明以循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)為例,依次將文本串中的詞輸入到RNN網(wǎng)絡(luò)中,可以得到包含當(dāng)前詞以及當(dāng)前詞之前所有詞的抽象空間的語義表示向量。

在訓(xùn)練時,上述收集的各個來源的數(shù)據(jù)可以具體是歷史數(shù)據(jù)中的各個來源的搜索結(jié)果,將這些歷史搜索結(jié)果中的文本作為訓(xùn)練樣本進(jìn)行RNN訓(xùn)練,一種RNN網(wǎng)絡(luò)如圖3所示,對應(yīng)圖3所示的語言模型,需要在訓(xùn)練階段確定其中的參數(shù):W、Wh、Wrec。

訓(xùn)練目標(biāo)是使得序列樣本中,每個詞在當(dāng)前序列中出現(xiàn)的概率最大。

具體的,可以采用隨機(jī)梯度下降法(Stochastic Gradient Descent,SGD)和反向傳播算法(BackPropagation)學(xué)習(xí)出RNN網(wǎng)絡(luò)的參數(shù)W,Wh,Wrec。SGD與反向傳播算法屬于本領(lǐng)域技術(shù)人員的公知知識,在此僅做概要說明。

SGD算法的思想是通過計(jì)算某一組(稱為mini-batch size)訓(xùn)練樣本的梯度(參數(shù)W,Wh,Wrec的偏導(dǎo)數(shù)),來迭代更新隨機(jī)初始化過的參數(shù)W,Wh,Wrec;更新的方法是每次讓W(xué),Wh,Wrec減去所設(shè)置的一個學(xué)習(xí)率(learning rate)乘以計(jì)算出的梯度,從而在多次迭代之后可以讓深度學(xué)習(xí)網(wǎng)絡(luò)根據(jù)參數(shù)W,Wh,Wrec所計(jì)算出的值,與實(shí)際值之間的差最小化。

反向傳播算法是在深度學(xué)習(xí)網(wǎng)絡(luò)中的一種有效的計(jì)算參數(shù)的梯度的方法。

S43:接收查詢,并獲取與所述查詢對應(yīng)的搜索結(jié)果。

例如,用戶在搜索引擎中以文本、語音等形式輸入查詢(query),搜索引擎接收到用戶輸入的查詢后,可以從數(shù)據(jù)庫或者互聯(lián)網(wǎng)上獲取與query相關(guān)的文本、圖片等內(nèi)容作為查詢對應(yīng)的搜索結(jié)果。具體的獲取與query相關(guān)的內(nèi)容可以采用各種已有或者將來出現(xiàn)的技術(shù)實(shí)現(xiàn)。

S44:對應(yīng)當(dāng)前的一個搜索結(jié)果,分別計(jì)算所述一個搜索結(jié)果在每個語言模型上的困惑度(perplexity,PPL)得分,將PPL得分最低的語言模型對應(yīng)的來源,作為所述一個搜索結(jié)果的來源。

其中,對應(yīng)每個搜索結(jié)果,可以獲取該搜索結(jié)果包含的預(yù)設(shè)內(nèi)容(如搜索結(jié)果包含的整個文本),并獲取預(yù)設(shè)內(nèi)容包含的詞,以及采用每個語言模型對詞進(jìn)行打分,根據(jù)詞對應(yīng)的得分計(jì)算搜索結(jié)果在每個語言模型上的PPL得分。

PPL得分與詞對應(yīng)的得分成反比關(guān)系,具體計(jì)算公式可以為:

其中,ppl是一個搜索結(jié)果在一個語言模型上的PPL得分,N是該搜索結(jié)果的預(yù)設(shè)內(nèi)容中包含的詞的總數(shù),Pi是采用該語言模型對每個詞進(jìn)行打分后得到的每個詞對應(yīng)的得分。

每個詞對應(yīng)的得分的計(jì)算流程可以包括:將詞對應(yīng)的詞向量作為語言模型的輸入層,經(jīng)過語言模型的計(jì)算后得到輸出,將語言模型的輸出作為詞對應(yīng)的得分。

具體的,以圖3所示的語言模型為例,在計(jì)算詞對應(yīng)的得分時,可以分為前向計(jì)算和分類計(jì)算。

如圖5所示,是某個語言模型中針對當(dāng)前文本的前向計(jì)算的結(jié)構(gòu)圖。最下層是輸入層,輸入層輸入的是當(dāng)前文本中包含的詞的詞向量,隱藏層是通過下述的循環(huán)單元(Recurrent Unit)的計(jì)算,逐步得到的。每個詞輸入后得到的rnn的隱層向量即為包括當(dāng)前詞之前所有詞的向量表示。

更具體的,輸入層是按照時間序列(i=1到i=T)逐次輸入到網(wǎng)絡(luò)的當(dāng)前文本中包含的詞的詞向量。對應(yīng)某個詞Wi,詞向量(Word Embedding)是一個長度為EMBEDDING_SIZE的列向量C(Wi);例如,假設(shè)詞表中詞的大小為1000000,那么系統(tǒng)中輸入層的輸入就是一個1000000維的向量(EMBEDDING_SIZE=1000000),其中當(dāng)前詞對應(yīng)的位置為1,詞典中其他詞所對應(yīng)的位置為0。網(wǎng)絡(luò)的隱藏層表示所設(shè)計(jì)的RNN網(wǎng)絡(luò)在每個時間點(diǎn)i時的狀態(tài),是一個長度為HIDDEN_SIZE的列向量hi。

hi的計(jì)算公式為:

hi=f(Wh*xi+Wrec*hi-1)

其中f()為非線性激活函數(shù)sigmoid,其函數(shù)定義如下所示,以及函數(shù)曲線如圖6所示:

經(jīng)過上述步驟,可以得到每個詞輸入后的隱層向量表示,用這個表示可以預(yù)測下一個詞出現(xiàn)的概率,如圖7所示。在語言模型中,預(yù)測下一個詞出現(xiàn)的概率實(shí)際上是一個分類問題,類別的大小等于詞表的大小。在上一步驟中得到的隱層向量hi,乘以一個hidden_size*voc_num大小的矩陣(hidden_size為隱層大小,voc_num為詞表大小),得到維度為voc_num的向量即為預(yù)測詞在詞表中的log概率分布。由于全聯(lián)通(full connect,F(xiàn)C)層(對應(yīng)圖3的W)的輸出范圍不一定在[0,1],所以需要增加softmax層對全聯(lián)通層的輸出做歸一化,使得概率分布范圍在[0,1],softmax計(jì)算如下所示:

其中,向量y(j)是softmax層的輸入,在本實(shí)施例中具體為全聯(lián)通層的輸出,k為向量y(j)的維度大小。

經(jīng)過上述步驟可以計(jì)算出每個語言模型對每個詞的得分,再采用PPL得分的計(jì)算公式可以根據(jù)每個詞的得分計(jì)算得到當(dāng)前文本在該語言模型上的PPL得分,假設(shè)共有n個語言模型,則每個搜索結(jié)果可以得到n個PPL得分,則將PPL得分最低的語言模型對應(yīng)的來源確定為每個搜索結(jié)果的來源。

在確定出搜索結(jié)果的來源后,可以為該搜索結(jié)果設(shè)置對應(yīng)的來源標(biāo)簽(如來自某個門戶網(wǎng)站)。之后可以將來源標(biāo)簽作為搜索結(jié)果的一個特征,在后續(xù)的搜索結(jié)果排序等算法中考慮。例如,在排序時前面的預(yù)設(shè)個數(shù)的搜索結(jié)果分別是不同來源的搜索結(jié)果,以及展示這預(yù)設(shè)個數(shù)的搜索結(jié)果,使得展示的搜索結(jié)果盡量多樣化。

本實(shí)施例中,通過根據(jù)語言模型對搜索結(jié)果進(jìn)行打分,并且語言模型是根據(jù)不同來源的數(shù)據(jù)訓(xùn)練生成的,可以根據(jù)打分結(jié)果確定搜索結(jié)果的來源,為滿足搜索結(jié)果多樣化等需求提供基礎(chǔ)。進(jìn)一步的,采用深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練語言模型可以使得語言模型更準(zhǔn)確,從而使得來源確定更準(zhǔn)確。

圖8是本申請一個實(shí)施例提出的基于人工智能的處理搜索結(jié)果的裝置的結(jié)構(gòu)示意圖。

如圖8所示,本實(shí)施例的裝置包括:第一獲取模塊81、第二獲取模塊82和來源確定模塊83。

第一獲取模塊81,用于接收查詢,并獲取與所述查詢對應(yīng)的搜索結(jié)果;

第二獲取模塊82,用于獲取多個語言模型,其中,每個語言模型采用一種來源的數(shù)據(jù)進(jìn)行訓(xùn)練后生成;

來源確定模塊83,用于分別采用每個語言模型對所述搜索結(jié)果進(jìn)行打分,以及根據(jù)打分結(jié)果確定所述搜索結(jié)果的來源。

一些實(shí)施例中,參見圖9,本實(shí)施例的裝置80還包括:

第三獲取模塊84,用于獲取不同來源的數(shù)據(jù),并將每個來源的數(shù)據(jù)組成一個訓(xùn)練數(shù)據(jù)集;

訓(xùn)練模塊85,用于采用同一個訓(xùn)練數(shù)據(jù)集的數(shù)據(jù)分別進(jìn)行訓(xùn)練,生成多個語言模型。

一些實(shí)施例中,參見圖9,所述來源確定模塊83包括:

打分子模塊831,用于對應(yīng)當(dāng)前的一個搜索結(jié)果,分別計(jì)算所述一個搜索結(jié)果在每個語言模型上的PPL得分;

確定子模塊832,用于將PPL得分最低的語言模型對應(yīng)的來源,作為所述一個搜索結(jié)果的來源。

一些實(shí)施例中,所述打分子模塊831具體用于:

獲取當(dāng)前的一個搜索結(jié)果中預(yù)設(shè)內(nèi)容包含的詞;

采用每個語言模型對所述詞進(jìn)行打分,得到詞對應(yīng)的得分;

根據(jù)詞對應(yīng)的得分計(jì)算所述PPL得分。

一些實(shí)施例中,所述語言模型為深度神經(jīng)網(wǎng)絡(luò)模型。

可以理解的是,本實(shí)施例的裝置與上述方法實(shí)施例對應(yīng),具體內(nèi)容可以參見方法實(shí)施例的相關(guān)描述,在此不再詳細(xì)說明。

本實(shí)施例中,通過根據(jù)語言模型對搜索結(jié)果進(jìn)行打分,并且語言模型是根據(jù)不同來源的數(shù)據(jù)訓(xùn)練生成的,可以根據(jù)打分結(jié)果確定搜索結(jié)果的來源,為滿足搜索結(jié)果多樣化等需求提供基礎(chǔ)。

可以理解的是,上述各實(shí)施例中相同或相似部分可以相互參考,在一些實(shí)施例中未詳細(xì)說明的內(nèi)容可以參見其他實(shí)施例中相同或相似的內(nèi)容。

需要說明的是,在本申請的描述中,術(shù)語“第一”、“第二”等僅用于描述目的,而不能理解為指示或暗示相對重要性。此外,在本申請的描述中,除非另有說明,“多個”的含義是指至少兩個。

流程圖中或在此以其他方式描述的任何過程或方法描述可以被理解為,表示包括一個或更多個用于實(shí)現(xiàn)特定邏輯功能或過程的步驟的可執(zhí)行指令的代碼的模塊、片段或部分,并且本申請的優(yōu)選實(shí)施方式的范圍包括另外的實(shí)現(xiàn),其中可以不按所示出或討論的順序,包括根據(jù)所涉及的功能按基本同時的方式或按相反的順序,來執(zhí)行功能,這應(yīng)被本申請的實(shí)施例所屬技術(shù)領(lǐng)域的技術(shù)人員所理解。

應(yīng)當(dāng)理解,本申請的各部分可以用硬件、軟件、固件或它們的組合來實(shí)現(xiàn)。在上述實(shí)施方式中,多個步驟或方法可以用存儲在存儲器中且由合適的指令執(zhí)行系統(tǒng)執(zhí)行的軟件或固件來實(shí)現(xiàn)。例如,如果用硬件來實(shí)現(xiàn),和在另一實(shí)施方式中一樣,可用本領(lǐng)域公知的下列技術(shù)中的任一項(xiàng)或他們的組合來實(shí)現(xiàn):具有用于對數(shù)據(jù)信號實(shí)現(xiàn)邏輯功能的邏輯門電路的離散邏輯電路,具有合適的組合邏輯門電路的專用集成電路,可編程門陣列(PGA),現(xiàn)場可編程門陣列(FPGA)等。

本技術(shù)領(lǐng)域的普通技術(shù)人員可以理解實(shí)現(xiàn)上述實(shí)施例方法攜帶的全部或部分步驟是可以通過程序來指令相關(guān)的硬件完成,所述的程序可以存儲于一種計(jì)算機(jī)可讀存儲介質(zhì)中,該程序在執(zhí)行時,包括方法實(shí)施例的步驟之一或其組合。

此外,在本申請各個實(shí)施例中的各功能單元可以集成在一個處理模塊中,也可以是各個單元單獨(dú)物理存在,也可以兩個或兩個以上單元集成在一個模塊中。上述集成的模塊既可以采用硬件的形式實(shí)現(xiàn),也可以采用軟件功能模塊的形式實(shí)現(xiàn)。所述集成的模塊如果以軟件功能模塊的形式實(shí)現(xiàn)并作為獨(dú)立的產(chǎn)品銷售或使用時,也可以存儲在一個計(jì)算機(jī)可讀取存儲介質(zhì)中。

上述提到的存儲介質(zhì)可以是只讀存儲器,磁盤或光盤等。

在本說明書的描述中,參考術(shù)語“一個實(shí)施例”、“一些實(shí)施例”、“示例”、“具體示例”、或“一些示例”等的描述意指結(jié)合該實(shí)施例或示例描述的具體特征、結(jié)構(gòu)、材料或者特點(diǎn)包含于本申請的至少一個實(shí)施例或示例中。在本說明書中,對上述術(shù)語的示意性表述不一定指的是相同的實(shí)施例或示例。而且,描述的具體特征、結(jié)構(gòu)、材料或者特點(diǎn)可以在任何的一個或多個實(shí)施例或示例中以合適的方式結(jié)合。

盡管上面已經(jīng)示出和描述了本申請的實(shí)施例,可以理解的是,上述實(shí)施例是示例性的,不能理解為對本申請的限制,本領(lǐng)域的普通技術(shù)人員在本申請的范圍內(nèi)可以對上述實(shí)施例進(jìn)行變化、修改、替換和變型。

當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點(diǎn)贊!
1
通化县| 南宁市| 太谷县| 盐亭县| 雷州市| 宕昌县| 信阳市| 浏阳市| 卓资县| 海晏县| 慈利县| 贡山| 澜沧| 七台河市| 黎平县| 河北省| 苏尼特左旗| 沂水县| 兴文县| 竹山县| 全州县| 永丰县| 蛟河市| 连山| 龙门县| 定远县| 锡林郭勒盟| 疏附县| 金门县| 隆安县| 太仆寺旗| 尤溪县| 连云港市| 南陵县| 东光县| 保德县| 翁牛特旗| 多伦县| 乐昌市| 宣恩县| 通城县|