本公開涉及自然語言處理領(lǐng)域,更具體地,涉及一種用于文本處理的電子設(shè)備和方法,其基于兩個或更多個詞特征表示模型之間的相關(guān)性來構(gòu)建多視角詞特征表示模型,以實現(xiàn)對文本對象的特征的深度共享視角表示,從而更有利于后續(xù)的自然語言處理。
背景技術(shù):
:在傳統(tǒng)的自然語言理解(naturallanguageunderstanding,nlu)算法中,文本(例如,詞語)被當(dāng)作一個離散的符號,詞語的表示是獨立的、離散的,使得詞之間并沒有很大的關(guān)聯(lián)。例如:“中國”的表示為[0001000000000000...]“北京”的表示為[0000000000001000...]該離散向量的維度是詞典的大小,因此維度通常較高。這種簡潔的離散表示方法通過配合最大熵、支持向量機(supportvectormachine,svm)、條件隨機場(conditionrandomfield,crf)等統(tǒng)計模型已經(jīng)很好地完成了自然語言處理(naturallanguageprocessing,nlp)領(lǐng)域的各種主流任務(wù),例如,詞性標(biāo)注(part-of-speechtagging)、要素抽取(slotfilling)、命名實體識別(namedentityrecognition)等。然而,這種離散表示方法通常也意味著我們需要更多的訓(xùn)練數(shù)據(jù)去成功地訓(xùn)練統(tǒng)計模型,因此運算量較大,并且這種詞的獨立表示往往不能反映詞語之間的語義關(guān)聯(lián),從而對于自然語言理解可能是不利的。近年來發(fā)展起來的詞嵌入(wordembedding)技術(shù)克服了這些缺點。詞嵌入簡單來說就是把離散的文本(例如,詞語、短語或句子)表示為低維空間的向量。以詞語為例,利用詞嵌入技術(shù)的詞向量表示通常為例如:“中國”的表示為[0.0172,-0.77,-0.507,0.1,-0.42,...]“北京”的表示為[0.01,-0.8,-0.5,0.123,-0.142,...]在詞嵌入技術(shù)中,詞向量的緯度以50維、100維、300維比較常見。由于詞嵌入技術(shù)考慮了各個文本之間的語義關(guān)系,因此各個詞語的向量表示并不是完全獨立的而是存在一定的語義關(guān)聯(lián),這樣,不僅使得詞向量表示的維度大大降低從而降低了計算復(fù)雜度,而且還使得這樣的詞向量表示更加有利于自然語言處理和口語理解中的任務(wù)。c&w,word2vec和glove是近年來被廣泛使用的幾種詞嵌入技術(shù)。隨著深度學(xué)習(xí)的發(fā)展,詞嵌入技術(shù)已經(jīng)成為自然語言處理和口語理解中不可缺少的重要分支,且該技術(shù)已經(jīng)取得了一定的成功。然而,現(xiàn)有的詞嵌入技術(shù)僅是從一個視角出發(fā)(例如,采用同一種訓(xùn)練機制或者基于同一個訓(xùn)練語料庫)來進行詞特征表示,這樣的詞特征表示通常具有局限性,即,在某一方面具有較突出的優(yōu)點而在其它方面有所欠缺。例如,word2vec依賴于跳元(skip-grams)或連續(xù)詞袋(continuousbagofwords,cbox)模型來創(chuàng)建詞向量從而可以獲得長的詞上下文,而glove是基于全局詞共現(xiàn)矩陣的非零項訓(xùn)練的,這需要對整個語料庫進行遍歷以收集統(tǒng)計信息。又例如,針對新聞報導(dǎo)的訓(xùn)練語料庫和針對日??谡Z的訓(xùn)練語料庫訓(xùn)練得到的詞特征表示在各個詞語間的語義關(guān)聯(lián)上各有偏重而具有局限性。技術(shù)實現(xiàn)要素:在下文中給出了關(guān)于本公開的簡要概述,以便提供關(guān)于本公開的某些方面的基本理解。但是,應(yīng)當(dāng)理解,這個概述并不是關(guān)于本公開的窮舉性概述。它并不是意圖用來確定本公開的關(guān)鍵性部分或重要部分,也不是意圖用來限定本公開的范圍。其目的僅僅是以簡化的形式給出關(guān)于本公開的某些概念,以此作為稍后給出的更詳細描述的前序。鑒于以上問題,本公開的目的是提供一種用于文本處理的電子設(shè)備和方法,其從多個視角出發(fā),根據(jù)以不同視角表示文本對象的不同文本特征表示之間的相關(guān)性來提供該文本對象的深度共享視角特征表示,以優(yōu)化執(zhí)行自然語言處理和口語理解等任務(wù)時的系統(tǒng)性能。根據(jù)本公開的一方面,提供了一種用于文本處理的電子設(shè)備,該電子設(shè)備包括處理器,該處理器被配置為:確定第一文本向量與第二文本向量之間的相關(guān)性,第一文本向量和第二文本向量是分別基于同一文本生成的多維實數(shù)向量;以及根據(jù)相關(guān)性獲得第三文本向量以用于表示該文本,其 中,第三文本向量所在的向量空間與第一文本向量和第二文本向量所在的向量空間相關(guān)。根據(jù)本公開的優(yōu)選實施例,文本對應(yīng)于詞語。根據(jù)本公開的另一優(yōu)選實施例,文本對應(yīng)于以下之一:多個詞語組成的短語;以及多個短語組成的句子。根據(jù)本公開的另一優(yōu)選實施例,第一文本向量和第二文本向量分別基于第一詞特征表示模型和第二詞特征表示模型。根據(jù)本公開的另一優(yōu)選實施例,第一詞特征表示模型和第二詞特征表示模型是分別基于不同的詞特征表示訓(xùn)練機制得到的。根據(jù)本公開的另一優(yōu)選實施例,詞特征表示訓(xùn)練機制包括以下至少之一:word2vec機制、glove機制和c&w機制。根據(jù)本公開的另一優(yōu)選實施例,處理器進一步被配置為:基于典型相關(guān)分析來確定第一文本向量與第二文本向量之間的相關(guān)性,并且以使得相關(guān)性滿足預(yù)定條件為目標(biāo)來調(diào)整典型相關(guān)分析的參數(shù)。根據(jù)本公開的另一優(yōu)選實施例,處理器進一步被配置為:利用神經(jīng)網(wǎng)絡(luò)對第一文本向量和第二文本向量進行處理以得到第一文本向量的變量和第二文本向量的變量,基于第一文本向量的變量和第二文本向量的變量確定相關(guān)性,并且以使得相關(guān)性滿足預(yù)定條件為目標(biāo)來調(diào)整神經(jīng)網(wǎng)絡(luò)的參數(shù)。根據(jù)本公開的另一優(yōu)選實施例,處理器進一步被配置為:利用自動編碼器對第一文本向量的變量和第二文本向量的變量進行處理以重構(gòu)第一文本向量和第二文本向量,并且以還使得重構(gòu)后的第一文本向量和第二文本向量與第一文本向量和第二文本向量之間的誤差滿足預(yù)定條件為目標(biāo)來調(diào)整自動編碼器和神經(jīng)網(wǎng)絡(luò)的參數(shù),以確定相關(guān)性。根據(jù)本公開的另一優(yōu)選實施例,處理器進一步被配置為針對多個文本分別確定相應(yīng)的第一文本向量與第二文本向量之間的相關(guān)性并獲得相應(yīng)的第三文本向量,并且該電子設(shè)備還包括存儲器,該存儲器被配置為存儲多個文本的第三文本向量以用于建立多視角文本特征表示模型。根據(jù)本公開的另一優(yōu)選實施例,處理器進一步被配置成針對多個文本中的每個文本,還基于關(guān)于其它文本的相關(guān)性來確定該文本的相應(yīng)的第一文本向量與第二文本向量之間的相關(guān)性。根據(jù)本公開的另一方面,還提供了一種用于文本處理的方法,該方法包括:確定第一文本向量與第二文本向量之間的相關(guān)性,第一文本向量和第二文本向量是分別基于同一文本生成的多維實數(shù)向量;以及根據(jù)相關(guān)性獲得第三文本向量以用于表示該文本,其中,第三文本向量所在的向量空間與第一文本向量和第二文本向量所在的向量空間相關(guān)。根據(jù)本公開的另一方面,還提供了一種用于文本處理的電子設(shè)備,該電子設(shè)備包括:存儲器,被配置為存儲多視角文本特征表示模型,其中,該多視角文本特征表示模型是利用上述方法建立的;以及處理器,被配置為從存儲器讀取多視角文本特征表示模型,并且基于該多視角文本特征表示模型將待處理的文本對象映射為相應(yīng)的多維實數(shù)向量。根據(jù)本公開的另一方面,還提供了一種用于文本處理的方法,該方法包括:從存儲器讀取多視角文本特征表示模型,其中,該多視角文本特征表示模型是利用上述方法建立的;以及基于多視角文本特征表示模型將待處理的文本對象映射為相應(yīng)的多維實數(shù)向量。根據(jù)本公開的其它方面,還提供了用于實現(xiàn)上述根據(jù)本公開的方法的計算機程序代碼和計算機程序產(chǎn)品以及其上記錄有該用于實現(xiàn)上述根據(jù)本公開的方法的計算機程序代碼的計算機可讀存儲介質(zhì)。另外,還提供了用于承載本公開的多視角文本特征表示模型的計算機可讀存儲介質(zhì)。根據(jù)本公開的實施例,通過結(jié)合多個視角來表示文本特征,以此來建立多視角文本特征表示模型,可以克服現(xiàn)有技術(shù)中單一視角的文本特征表示模型的不足,從而能夠提高應(yīng)用于自然語言處理時的性能。在下面的說明書部分中給出本公開實施例的其它方面,其中,詳細說明用于充分地公開本公開實施例的優(yōu)選實施例,而不對其施加限定。附圖說明本公開可以通過參考下文中結(jié)合附圖所給出的詳細描述而得到更好的理解,其中在所有附圖中使用了相同或相似的附圖標(biāo)記來表示相同或者相似的部件。所述附圖連同下面的詳細說明一起包含在本說明書中并形成說明書的一部分,用來進一步舉例說明本公開的優(yōu)選實施例和解釋本公開的原理和優(yōu)點。其中:圖1是示出根據(jù)本公開的實施例的用于文本處理的電子設(shè)備的功能配置示例的框圖;圖2是示出根據(jù)本公開的實施例的基于典型相關(guān)分析(canonicalcorrelationanalysis,cca)來確定文本向量間的相關(guān)性的實現(xiàn)方案的示意圖;圖3是示出對圖2所示的方案進一步應(yīng)用神經(jīng)網(wǎng)絡(luò)來確定文本向量間的相關(guān)性的實現(xiàn)方案的示意圖;圖4是示出對圖3所示的方案進一步應(yīng)用自動編碼器來確定文本向量間的相關(guān)性的實現(xiàn)方案的示意圖;圖5是示出根據(jù)本公開的實施例的用于文本處理的電子設(shè)備的功能配置示例的框圖;圖6是示出根據(jù)本公開的實施例的用于文本處理的方法的過程示例的流程圖;圖7是示出根據(jù)本公開的實施例的用于文本處理的方法的過程示例的流程圖;以及圖8是示出作為本公開的實施例中可采用的信息處理設(shè)備的個人計算機的示例結(jié)構(gòu)的框圖。具體實施方式在下文中將結(jié)合附圖對本公開的示范性實施例進行描述。為了清楚和簡明起見,在說明書中并未描述實際實施方式的所有特征。然而,應(yīng)該了解,在開發(fā)任何這種實際實施例的過程中必須做出很多特定于實施方式的決定,以便實現(xiàn)開發(fā)人員的具體目標(biāo),例如,符合與系統(tǒng)及業(yè)務(wù)相關(guān)的那些限制條件,并且這些限制條件可能會隨著實施方式的不同而有所改變。此外,還應(yīng)該了解,雖然開發(fā)工作有可能是非常復(fù)雜和費時的,但對得益于本公開內(nèi)容的本領(lǐng)域技術(shù)人員來說,這種開發(fā)工作僅僅是例行的任務(wù)。在此,還需要說明的一點是,為了避免因不必要的細節(jié)而模糊了本公開,在附圖中僅僅示出了與根據(jù)本公開的方案密切相關(guān)的設(shè)備結(jié)構(gòu)和/或處理步驟,而省略了與本公開關(guān)系不大的其它細節(jié)。接下來,將參照圖1至圖8詳細描述本公開的實施例。首先,將參照圖1描述根據(jù)本公開的實施例的用于文本處理的電子設(shè)備的功能配置示例。圖1是示出根據(jù)本公開的實施例的用于文本處理的電子設(shè)備的功能配置示例的框圖。如圖1所示,根據(jù)該實施例的電子設(shè)備100可包括相關(guān)性確定單元102和文本向量生成單元104。應(yīng)指出,這里的相關(guān)性確定單元102和文本向量生成單元104可以是分立的物理實體或邏輯實體,或者也可由同一個物理實體(例如,中央處理單元(cpu)、大規(guī)模集成電路(asic)等)來實現(xiàn)。相關(guān)性確定單元102可被配置成確定第一文本向量與第二文本向量之間的相關(guān)性,其中,這里的第一文本向量和第二文本向量是分別基于同一文本生成的多維實數(shù)向量。該文本例如可以是詞語、由多個詞語組成的短語或者由多個短語組成的句子。以文本是詞語為例,第一文本向量和第二文本向量分別基于第一詞特征表示模型和第二詞特征表示模型,這兩個詞特征表示模型是分別從不同的視角所建立的詞特征表示模型。例如,這兩個詞特征表示模型是分別基于不同的詞特征表示訓(xùn)練機制得到,優(yōu)選地,這里的詞特征表示訓(xùn)練機制可包括word2vec機制、glove機制和c&w機制中的至少一個,即,可從這三種訓(xùn)練機制中選擇兩種分別作為用于第一詞特征表示模型和第二次特征模型的訓(xùn)練機制。這些機制均是現(xiàn)有技術(shù)中常用的詞嵌入技術(shù),在此不再對其進行詳細描述。作為示例,第一詞特征表示模型是基于word2vec機制獲得的,而第二詞特征表示模型是基于glove機制獲得的??梢岳斫?,隨著技術(shù)的發(fā)展、改進,可能出現(xiàn)其他的主流詞特征表示訓(xùn)練機制,本領(lǐng)域技術(shù)人員顯然也可根據(jù)本公開的構(gòu)思融合基于其他的兩種主流詞特征表示訓(xùn)練機制得到的詞特征表示模型。另一方面,替選地,這兩個詞特征表示模型是分別基于不同的訓(xùn)練語料(corpus)得到的。例如,第一詞特征表示模型是基于一般語料(例如,大規(guī)模的新聞?wù)Z料或網(wǎng)頁文本)得到的,而第二詞特征表示模型是基于用戶固有語料(例如,郵件語料、口語語料等)訓(xùn)練得到的,其中用于訓(xùn)練第一詞特征表示模型和第二詞特征表示模型的訓(xùn)練機制可以相同也可以不同。需要注意,上述的兩種詞特征表示模型在一個示例中是執(zhí)行本公開技術(shù)方案的人員自行根據(jù)相應(yīng)的訓(xùn)練機制和語料訓(xùn)練得到的(在線或離線的形式),例如根據(jù)其具體的語言處理任務(wù)進行針對性的訓(xùn)練得到的,在另一個示例中是直接從外部獲取的,例如從學(xué)術(shù)研究共享平臺上獲取的他人已經(jīng)訓(xùn)練好的詞特征表示模型來作為待融合的詞特征表示模型。另外,本公開主要以兩個詞特征表示模型的融合作為示例,然而,本領(lǐng)域技術(shù)人員 可以理解,根據(jù)實際需要,還可以基于本公開執(zhí)行多于兩個詞特征表示模型的融合,例如,先依據(jù)本公開的方案針對第一及第二詞特征表示模型進行融合,將融合得到的第三詞特征表示模型再根據(jù)本公開的方案與第四詞特征表示模型進行融合;亦可以先依據(jù)本公開的方案針對第一及第二詞特征表示模型進行融合以得到第三詞特征表示模型,同時針對第四及第五詞特征表示模型進行融合以得到第六詞特征表示模型,再將第三詞特征表示模型與第六詞特征表示模型進行融合,在此不再贅述。優(yōu)選地,相關(guān)性確定單元102可進一步被配置成基于典型相關(guān)分析(cca)來確定第一文本向量與第二文本向量之間的相關(guān)性,并且以使得該相關(guān)性滿足預(yù)定條件為目標(biāo)來調(diào)整典型相關(guān)分析的參數(shù)。典型相關(guān)分析(cca)是用于分析兩組變量之間的相關(guān)關(guān)系的一種常用統(tǒng)計分析方法,在此將其應(yīng)用于確定詞嵌入技術(shù)中的兩組詞特征表示(即,詞向量)之間的相關(guān)性。然而,應(yīng)理解,本領(lǐng)域技術(shù)人員顯然也可想到利用其它相關(guān)性分析方法(包括現(xiàn)有的或者未來可能出現(xiàn)的分析方法)來確定第一文本向量與第二文本向量之間的相關(guān)性。在這里,將簡要介紹cca。cca是用于找到兩個隨機向量的相關(guān)性最大的線性投影的無監(jiān)督數(shù)據(jù)分析的標(biāo)準技術(shù)。在數(shù)學(xué)上,我們定義兩個隨機向量(x1,x2),其協(xié)方差矩陣定義為(∑11,∑22)并且互協(xié)方差矩陣定義為∑12。(r1,r2)>0是協(xié)方差矩陣∑11和∑22的兩個正則項以保證樣本協(xié)方差的非特異性。cca試圖找到兩個視角a1、a2的相關(guān)性最大的一對線性投影如以下表達式(1)所示:表達式(1)是經(jīng)典的半定規(guī)劃(semi-definiteprogramming)。假設(shè)中間項為并且令uk和vk為t的前k個左奇異向量和前 k個右奇異向量,則最優(yōu)解為以下表達式(2)所示:在實施例的以下描述中,將以典型相關(guān)分析為例來描述本公開的技術(shù),但是應(yīng)理解,本公開并不限于此。圖2是示出根據(jù)本公開的實施例的基于典型相關(guān)分析來確定文本向量間的相關(guān)性的實現(xiàn)方案的示意圖。如圖2所示,假設(shè)x和y分別為第一文本向量和第二文本向量,并且u和v分別為典型相關(guān)分析的線性變換參數(shù)。根據(jù)典型相關(guān)分析,這里例如以使得經(jīng)線性變換后的第一文本向量(utx)與第二文本向量(vty)之間的相關(guān)性最高為優(yōu)化目標(biāo)來調(diào)整參數(shù)u和v,即,在數(shù)學(xué)上可以表示為例如以使得utx與vty之間的協(xié)方差最小為優(yōu)化目標(biāo)來確定參數(shù)u和v的值,其中(·)t表示矩陣的轉(zhuǎn)置。這里應(yīng)理解,盡管這里以使得utx與vty之間的相關(guān)性最高為例來描述如何調(diào)整典型相關(guān)分析的參數(shù)u和v,但是本公開不限于此,而是也可根據(jù)實際情況(例如,計算能力等)而以滿足其它預(yù)定條件(例如,預(yù)定相關(guān)性閾值、預(yù)定迭代次數(shù)等)的相關(guān)性為目標(biāo)來確定典型相關(guān)分析的參數(shù),這同樣適用于隨后的實施例中的描述。根據(jù)優(yōu)化目標(biāo)函數(shù)來確定線性變換參數(shù)u和v的具體過程是本領(lǐng)域技術(shù)人員根據(jù)相關(guān)數(shù)學(xué)知識可以實現(xiàn)的,在此不再詳細描述。返回參照圖1,文本向量生成單元104可被配置成根據(jù)所確定的相關(guān)性來獲得第三文本向量以表示同一文本。在圖2所示的示例中,根據(jù)在相關(guān)性滿足預(yù)定條件時所確定的u和v,可以獲得同一文本的兩個文本特征表示,即utx、vty,其中任一者皆可作為第三文本向量,換言之,第三文本向量例如可以表示為utx、vty或者基于utx和vty中至少之一確定的向量(例如兩者的加權(quán)平均等變換形式)。可以理解,如上所述,由于參數(shù)u和v是基于第一文本向量與第二文本向量之間的相關(guān)性所確定的,因此所生成的第三文本向量所在的向量空間與第一文本向量和第二文本向量所在的向量空間具有相關(guān)性。這樣, 所生成的第三文本向量考慮了基于不同視角得到的第一文本向量和第二文本向量之間的相關(guān)性,因此其是對同一文本的多視角、深度特征表示,能夠提高后續(xù)的自然語言處理的性能。另外,本公開的技術(shù)方案可以是針對既得的至少兩個文本特征表示模型進行融合從而易于實現(xiàn)和推廣,不必再例如重新統(tǒng)合兩種語料進行訓(xùn)練。以上描述了對于一個文本進行處理以得到新的第三文本向量的示例,類似地,可對多個文本為了進行類似處理以得到相應(yīng)的第三文本向量的集合,以用于建立多視角文本特征表示模型。優(yōu)選地,上述相關(guān)性確定單元102可進一步被配置成針對多個文本,通過上述方式分別確定相應(yīng)的第一文本向量與第二文本向量之間的相關(guān)性,并且文本向量生成單元104可進一步被配置成根據(jù)關(guān)于各個文本所確定的相關(guān)性來獲得相應(yīng)的第三文本向量。優(yōu)選地,該電子設(shè)備100還可包括存儲器106,存儲器106可被配置為存儲這多個文本的第三文本向量以用于建立多視角文本特征表示模型,該多視角文本特征表示模型表示從文本對象到基于多個視角確定的文本向量的映射,可用于執(zhí)行后續(xù)的自然語言處理中的各種任務(wù)。此外,優(yōu)選地,相關(guān)性確定單元102可進一步被配置成針對多個文本中的每個文本,還基于關(guān)于其它文本的相關(guān)性來確定該文本的第一文本向量與第二文本向量之間的相關(guān)性。根據(jù)上述方式,針對每個文本,可僅基于該文本自身的第一文本向量與第二文本向量之間的相關(guān)性來確定其對應(yīng)的第三文本向量,然后根據(jù)這些分別確定的第三文本向量的集合來建立新的多視角文本特征表示模型。然而,通常地,當(dāng)對特定文本集合進行處理以建立新的文本特征表示模型時,取代逐文本地確定第三文本向量,還可基于針對該文本集合的第一文本向量集合與第二文本向量集合之間的整體相關(guān)性來確定針對該文本集合的典型相關(guān)分析的參數(shù),即,在確定關(guān)于特定文本的相關(guān)性時還需要將其它文本的相關(guān)性納入考慮,由此來確定針對該文本集合的第三文本向量集合,從而用于建立多視角文本特征表示模型。利用典型相關(guān)分析技術(shù)、以文本集合作為整體來確定第一文本向量集合與第二文本向量集合之間的相關(guān)性的具體實現(xiàn)過程可參見典型相關(guān)分析技術(shù)的原理,在此不再詳細描述。此外,應(yīng)指出,在以下參照圖3和圖4描述的確定相關(guān)性的示例實現(xiàn)方案中,均是以多個文本的集合作為整體來確定相關(guān)性,但是替選地也可逐文本地來確定相關(guān)性,從而根據(jù)相關(guān)性 來確定相應(yīng)的第三文本向量集合以用于建立多視角文本特征表示模型,本領(lǐng)域技術(shù)人員可根據(jù)實際情況而選擇具體的實現(xiàn)方式,本公開對此不作限制。優(yōu)選地,還可進一步利用神經(jīng)網(wǎng)絡(luò)來確定上述相關(guān)性。圖3是示出對圖2所示的方案進一步應(yīng)用神經(jīng)網(wǎng)絡(luò)來確定文本向量間的相關(guān)性的實現(xiàn)方案的示意圖。如圖3所示,在圖2所示的方案的基礎(chǔ)上,進一步添加了兩個獨立的深度神經(jīng)網(wǎng)絡(luò)(deepneuralnetwork,dnn)以對所輸入的兩個文本向量x和y(這里的x和y也可表示文本向量集合)進行非線性變換,然后再利用典型相關(guān)分析(caa)來確定非線性變換后的向量之間的相關(guān)性,該方案在下文中也可以稱為深度典型相關(guān)分析(deepcanonicalcorrelationanalysis,dcca)。然而,應(yīng)理解,盡管這里以深度神經(jīng)網(wǎng)絡(luò)與典型相關(guān)分析的組合為例來確定文本向量間的相關(guān)性,但是如上所述,也可利用深度神經(jīng)網(wǎng)絡(luò)與其它相關(guān)性分析技術(shù)的組合來執(zhí)行該確定。此外,這里利用兩個獨立的深度神經(jīng)網(wǎng)絡(luò)來進行非線性變換是為了降低計算復(fù)雜度,在不考慮計算復(fù)雜度的情況下,當(dāng)然也可利用一個深度神經(jīng)網(wǎng)絡(luò)來對第一和第二文本向量進行非線性變換。在圖3所示的示例中,符號x、y、u和v的含義與以上參照圖2描述的相同,在此不再重復(fù),f(·)和g(·)分別表示兩個深度神經(jīng)網(wǎng)絡(luò)的非線性變換,其參數(shù)分別為wf和wg。根據(jù)圖3所示的方案,第一文本向量x和第二文本向量y首先經(jīng)過深度神經(jīng)網(wǎng)絡(luò)以接受非線性變換,并且變換后的第一文本向量的變量和第二文本向量的變量分別記為f(x)和g(y)。然后,利用cca對f(x)和g(y)分別進行線性變換,并且以使得線性變換后的f(x)和g(y)(即,utf(x)和vtg(y))之間的相關(guān)性最大化為目標(biāo)來調(diào)整典型相關(guān)分析的參數(shù)(即,u和v)和深度神經(jīng)網(wǎng)絡(luò)的參數(shù),深度神經(jīng)網(wǎng)絡(luò)的參數(shù)可包括上述wf和wg,另外還可以包括其結(jié)構(gòu)參數(shù)(包括深度神經(jīng)網(wǎng)絡(luò)的層數(shù)和每層上的維度),從而可以確定最終的第三文本向量為utf(x)、vtg(y)或者基于utf(x)和vtg(y)中至少之一確定的向量(例如兩者的加權(quán)平均等變換形式)。其中,深度神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)參數(shù)也可以是根據(jù)運算系統(tǒng)環(huán)境等因素預(yù)定義的,根據(jù)本發(fā)明的一個示例預(yù)定結(jié)構(gòu)為4層,每層的維度分別為100、1024、1024和100。上述計算過程在數(shù)學(xué)上可以表示為尋找使得utf(x)與vtg(y)之間的協(xié)方差最小的u、v、wf和wg,例如可以表示為如下表達式(3):其中,n表示文本向量集合的總數(shù),i表示單位矩陣,并且(rx,ry)>0是用于協(xié)方差估計的正則化參數(shù)。如何根據(jù)上述目標(biāo)優(yōu)化函數(shù)對模型進行訓(xùn)練以確定深度神經(jīng)網(wǎng)絡(luò)的參數(shù)wf和wg以及cca的線性變換參數(shù)u和v是本領(lǐng)域技術(shù)人員根據(jù)掌握的數(shù)學(xué)知識可以實現(xiàn)的,這并不是本公開的技術(shù)的重點,因此在此不再詳細描述。例如,可以使用例如受限玻爾茲曼(restrictedboltzmannmachine,rbm)技術(shù)來進行模型的預(yù)訓(xùn)練,然后使用反向傳播(back-propagation)例如隨機梯度下降(stochasticgradientdescent,sgd)技術(shù),基于使得文本向量間的相關(guān)性最大的目標(biāo)函數(shù)對深度神經(jīng)網(wǎng)絡(luò)的參數(shù)wf和wg以及cca的線性變換參數(shù)u和v進行聯(lián)合優(yōu)化學(xué)習(xí)。根據(jù)一個示例,利用上述的隨機梯度下降方案對dnn的參數(shù)進行精細調(diào)整,例如先確定dnn頂層的梯度(delta),再根據(jù)梯度調(diào)整dnn頂層參數(shù)如w’f=wf+調(diào)整系數(shù)*梯度,進而再推算dnn其他層次的參數(shù)。其中,dnn頂層的梯度可以通過基于目標(biāo)函數(shù)(即公式(3))分別針對hx和hy對corr(hx,hy)進行求導(dǎo)來獲得,其中,corr(hx,hy)表示hx和hy的相關(guān)度,hx=utf(x)以及hy=vtg(y)。在利用局部或優(yōu)選的全局訓(xùn)練數(shù)據(jù)基于dcca方案對深度神經(jīng)網(wǎng)絡(luò)的參數(shù)以及cca的線性變換參數(shù)完成訓(xùn)練之后,可以得到確定的深度神經(jīng)網(wǎng)絡(luò)的參數(shù)wf和wg及cca參數(shù)u和v。屆時,逐個地針對每個文本,將其第一文本向量x和第二文本向量y分別輸入相應(yīng)的神經(jīng)網(wǎng)絡(luò)f(·)和g(·)中,之后再由cca進行變換即可獲得該文本的目標(biāo)第三文本向量例如utf(x),直至完成所有待處理文本的文本向量變換。其中,局部或全局是相對于待處理的全部文本集合而言的,本領(lǐng)域技術(shù)人員可以根據(jù)其面對的具體語言處理任務(wù),從全部文本集合中抽取出有關(guān)的文本作為局部訓(xùn)練數(shù)據(jù)進行訓(xùn)練以提高效率,也可以根據(jù)其對模型精度的要求和運算資源來選擇全局或局部訓(xùn)練數(shù)據(jù)。此外,應(yīng)指出,以上給出的目標(biāo)優(yōu)化函數(shù)僅為示例而非限制,并且本 領(lǐng)域技術(shù)人員也可根據(jù)具體的優(yōu)化目標(biāo),基于本公開的原理而設(shè)計適合實際需要的目標(biāo)函數(shù)。應(yīng)指出,上述典型相關(guān)分析(cca)和深度典型相關(guān)分析(dcca)均屬于無監(jiān)督學(xué)習(xí)過程,因此,在確定相關(guān)性的過程中,盡管可能獲得了第一文本向量與第二文本向量之間的較高相關(guān)性,但是在此過程中,可能會使得此時獲得的第三文本向量與第一文本向量和/或第二文本向量的差別較大,即,導(dǎo)致較大的失真,這有可能在一定程度上影響后續(xù)的自然語言處理的性能。鑒于此,為了進一步優(yōu)化系統(tǒng)性能,還可通過利用自動編碼器重構(gòu)第一文本向量和第二文本向量,以在最大化相關(guān)性的同時最小化自動編碼錯誤來調(diào)整相關(guān)參數(shù),從而確定相應(yīng)的第三文本向量。以下將參照圖4描述該情況下的實現(xiàn)方案。圖4是示出對圖3所示的方案進一步應(yīng)用自動編碼器來確定文本向量間的相關(guān)性的實現(xiàn)方案的示意圖。如圖4所示,在圖3所示的方案的基礎(chǔ)上,進一步加入了兩個自動編碼器(auto-encoder)以對經(jīng)過深度神經(jīng)網(wǎng)絡(luò)非線性變換后的第一文本向量和第二文本向量進行重構(gòu),該方案在下文可稱為深度典型相關(guān)自動編碼(deepcanonicallycorrelatedauto-encoders,dccae)。類似地,如上所述,在該實現(xiàn)方案中,也可應(yīng)用除cca之外的技術(shù)來確定相關(guān)性。在圖4所示的示例中,符號x、y、u、v、f(·)和g(·)的含義與以上參照圖3描述的相同,在此不再重復(fù),符號p(·)和q(·)分別表示用于重構(gòu)的自動編碼器(即,深度神經(jīng)網(wǎng)絡(luò))的非線性變換,其參數(shù)分別為wp和wq。根據(jù)圖4所示的方案,經(jīng)過深度神經(jīng)網(wǎng)絡(luò)的非線性變換后的第一文本向量的變量f(x)和第二文本向量的變量g(y)同時被輸入到cca模塊和自動編碼器模塊以分別接受相關(guān)性分析和重構(gòu),并且以在使得線性變換后的f(x)和g(y)(即,utf(x)和vtg(y))之間的相關(guān)性最大化的同時使得自動編碼誤差(即,重構(gòu)后的第一文本向量p(f(x))和第二文本向量q(g(y))分別與原始的第一文本向量x和第二文本向量y之間的差的絕對值|p(f(x))-x|和|q(g(y))-y|)最小化為優(yōu)化目標(biāo)來調(diào)整典型相關(guān)分析的參數(shù)(即,u和v)、深度神經(jīng)網(wǎng)絡(luò)的參數(shù)(即,wf和wg)以及自動編碼器的參數(shù)(即,wp和wq),從而可以確定最終的第三文本向量為utf(x)、vtg(y)或者基于utf(x)和vtg(y)中至少之一確定的向量。上述計算過程在數(shù)學(xué)上可以例如表示為尋找使得utf(x)與vtg(y)之間的協(xié)方差與p(f(x))與x之間的差的絕對值以及q(g(y))與y之間的差的絕對值的和最小的u、v、wf、wg、wp和wq,這例如可以表示為如下表達式(4):在表達式(4)中,與以上表達式(3)中的符號相同的符號表示相同的含義,在此不再重復(fù)。λ是與用于控制自動編碼器的水平的歸一化常數(shù)(實際上是控制自動編碼錯誤在目標(biāo)函數(shù)中所占的比例),其為經(jīng)驗值或者通過有限次實驗確定的值。如何根據(jù)該目標(biāo)表達式來對相關(guān)參數(shù)進行聯(lián)合優(yōu)化學(xué)習(xí)可參見以上針對dcca方案的描述,在此不再重復(fù)。此外,應(yīng)理解,該目標(biāo)函數(shù)僅是示例而非限制,并且本領(lǐng)域技術(shù)人員可以根據(jù)實際的設(shè)計目標(biāo)而對該目標(biāo)函數(shù)進行修改。在利用局部或全局訓(xùn)練數(shù)據(jù)基于dccae方案對深度神經(jīng)網(wǎng)絡(luò)的參數(shù)以及cca的線性變換參數(shù)完成訓(xùn)練之后,可以得到確定的深度神經(jīng)網(wǎng)絡(luò)的參數(shù)wf和wg及cca參數(shù)u和v。屆時,逐個地針對每個文本,將其第一文本向量x和第二文本向量y分別輸入相應(yīng)的神經(jīng)網(wǎng)絡(luò)f(·)和g(·)中,之后再由cca進行變換即可獲得該文本的目標(biāo)第三文本向量例如utf(x),直至完成所有待處理文本的文本向量變換。應(yīng)指出,盡管以上參照圖2至圖4描述了確定文本向量間的相關(guān)性的示例實現(xiàn)方案,但是應(yīng)理解,這僅是示例而非限制,并且本領(lǐng)域技術(shù)人員可根據(jù)本公開的原理而對上述實現(xiàn)方案進行修改。例如,優(yōu)化目標(biāo)函數(shù)可以不是使得相關(guān)性最大化,而是預(yù)設(shè)的最大迭代次數(shù)或者滿足預(yù)定閾值的相關(guān)性等,或者也可采用除cca之外的相關(guān)性分析技術(shù)等等,并且這樣的變型均認為落入本公開的范圍內(nèi)。通過利用上述cca、dcca、dccae方案來獲得文本向量間的相關(guān) 性,由于結(jié)合了多個視角來表示文本特征,因此能夠獲得深度多視角文本特征表示模型,從而能夠提高自然語言理解等中的任務(wù)的性能。接下來,將參照圖5描述利用上述獲得的多視角文本特征表示模型來進行文本處理的實施例。圖5是示出根據(jù)本公開的實施例的用于文本處理的電子設(shè)備的功能配置示例的框圖。如圖5所示,根據(jù)該實施例的電子設(shè)備500可包括存儲器502和處理器504。存儲器502可被配置為存儲上述所建立的多視角文本特征表示模型。處理器504可被配置為從存儲器502讀取多視角文本特征表示模型,并且基于該多視角文本特征表示模型而將待處理的文本對象映射為相應(yīng)的多維實數(shù)向量。該待處理的文本對象可存儲在存儲器502或者外部存儲器中,或者也可以是用戶輸入的,例如用戶輸入語音,由語音識別模塊將語音轉(zhuǎn)化為文本,進而由本公開的方案進行處理。該文本對象例如可以是詞語,并且該多視角文本特征表示模型例如是詞特征表示模型。在該情況下,當(dāng)對短語、句子或段落進行處理時,處理器504可通過利用現(xiàn)有的詞劃分技術(shù)將該短語、句子或段落適當(dāng)?shù)貏澐譃槎鄠€詞語單元,并基于該詞特征表示模型而將這多個詞語單元分別映射為相應(yīng)的詞向量,以用于執(zhí)行要素抽取、語句分類、自動翻譯等自然語言理解處理。替選地,在所建立的多視角文本特征表示模型例如是短語或句子等文本對象的特征表示模型時,取代將短語、句子、段落等劃分為相應(yīng)的詞單元,可通過直接映射、將句子或段落劃分為短語或者將段落劃分為句子等方式,基于多視角文本特征表示模型將這些文本對象映射為相應(yīng)的文本向量,并且基于這些文本向量對這些短語、句子或段落進行理解。即,在實際處理過程中,可能還需要進行詞語劃分的處理,該處理可采用現(xiàn)有技術(shù)中公知的技術(shù),并且與本發(fā)明的發(fā)明點不相關(guān),因此在此不詳細描述。利用所建立的文本特征表示模型來進行自然語言理解等處理的具體過程與現(xiàn)有技術(shù)中相同,在此不再詳細描述。在這里,應(yīng)指出,盡管以上參照圖1和圖5描述了用于文本處理的電子設(shè)備的功能配置示例,但是這僅是示例而非限制,并且本領(lǐng)域技術(shù)人員可根據(jù)本公開的原理而對上述功能配置進行修改。例如,所示出的各個功能單元可以進行組合、進一步劃分或者添加另外的功能單元,并且這樣的 變型應(yīng)認為落入本公開的范圍內(nèi)。與上述裝置實施例相對應(yīng)的,本公開還提供了以下方法實施例。接下來,將參照圖6和圖7描述根據(jù)本公開的實施例的用于文本處理的方法的過程示例。圖6是示出根據(jù)本公開的實施例的用于文本處理的方法的過程示例的流程圖。該方法對應(yīng)于以上參照圖1描述的用于文本處理的電子設(shè)備的實施例。如圖6所示,首先,在步驟s610中,確定第一文本向量與第二文本向量之間的相關(guān)性,第一文本向量和第二文本向量是分別基于同一文本生成的多維實數(shù)向量。接下來,在步驟s620中,根據(jù)所確定的相關(guān)性獲得第三文本向量以用于表示該文本,第三文本向量所在的向量空間與第一文本向量和第二文本向量所在的向量空間相關(guān)。優(yōu)選地,該文本對應(yīng)于詞語、由多個詞語構(gòu)成的短語或者由多個短語構(gòu)成的句子。優(yōu)選地,第一文本向量和第二文本向量分別基于第一詞特征表示模型和第二詞特征表示模型,第一詞特征表示模型和第二詞特征表示模型是分別基于不同的詞特征表示訓(xùn)練機制以及/或者不同的訓(xùn)練語料得到的。詞特征表示訓(xùn)練機制可包括以下至少之一:word2vec機制、glove機制和c&w機制,即,可從這三種訓(xùn)練機制中選擇兩種分別作為用于第一次特征表示模型和第二詞特征表示模型的訓(xùn)練機制。優(yōu)選地,該方法還包括:基于典型相關(guān)分析確定第一文本向量與第二文本向量之間的相關(guān)性,并且以使得相關(guān)性滿足預(yù)定條件為目標(biāo)來調(diào)整典型相關(guān)分析的參數(shù)。優(yōu)選地,該方法還包括:針對多個文本分別確定相應(yīng)的第一文本向量與第二文本向量之間的相關(guān)性并獲得相應(yīng)的第三文本向量;以及基于多個文本的第三文本向量建立多視角文本特征表示模型。此外,優(yōu)選地,該方法還可包括基于上述dcca和dccae等方案來確定文本向量間的相關(guān)性。利用cca、dcca和dccae等方案來確定文本向量間的相關(guān)性以生成相應(yīng)的第三文本向量從而建立多視角文本特征表示模型的具體處理 過程可參見以上裝置實施例中相應(yīng)位置的描述,在此不再重復(fù)。圖7是示出根據(jù)本公開的實施例的用于文本處理的方法的過程示例的流程圖。該方法對應(yīng)于以上參照圖5描述的用于文本處理的電子設(shè)備的實施例。如圖7所示,首先,在步驟s710中,從存儲器讀取上述建立的多視角文本特征表示模型。接下來,在步驟s720中,基于該多視角文本特征表示模型而將待處理的文本對象映射為相應(yīng)的多維實數(shù)向量。該待處理的文本對象可存儲在內(nèi)部存儲器或者外部存儲器中,或者也可以是用戶輸入的。優(yōu)選地,該文本對象可對應(yīng)于詞語,并且該方法還可包括基于該文本對象的多維實數(shù)向量而對包含該文本對象的短語、句子和段落中至少之一進行文本理解。應(yīng)理解,圖6和圖7所示的方法實施例的流程圖僅是示例而非限制,并且本領(lǐng)域技術(shù)人員可根據(jù)本公開的原理而對上述處理步驟進行修改,例如,對上述處理步驟進行添加、刪除、組合和/或變更等,并且這樣的變型都應(yīng)認為落入本公開的范圍內(nèi)。此外,還應(yīng)指出,這里參照圖6和圖7描述的方法實施例分別與以上參照圖1和圖5描述的裝置實施例相對應(yīng),因此在此未詳細描述的內(nèi)容可參見以上裝置實施例中相應(yīng)位置的描述,而在此不再重復(fù)。當(dāng)將根據(jù)本公開的實施例所建立的多視角文本特征表示模型應(yīng)用于執(zhí)行自然語言理解中的任務(wù)時,其能夠有效地優(yōu)化處理性能。下面將作為示例給出當(dāng)分別將根據(jù)現(xiàn)有技術(shù)構(gòu)建的文本特征表示模型和根據(jù)本發(fā)明的cca、dcca和dccae方案分別建立的多視角文本特征表示模型應(yīng)用于口語理解中的要素抽取任務(wù)時,各個模型之間的處理性能對比。應(yīng)理解,盡管這里給出了要素抽取任務(wù)作為示例來檢驗本發(fā)明的實際效果,但是本發(fā)明還可以應(yīng)用于自然語言理解中的任何其它任務(wù),諸如上述詞性標(biāo)注、命名實體識別等任務(wù)。也就是說,本公開的例如電子設(shè)備500實際上還可以包括要素提取模塊、詞性標(biāo)注模塊或命名實體識別模塊等高層的自然語言處理模塊,響應(yīng)于基于多視角文本特征表示模型對待處理的文本映射得到的多維實數(shù)向量,上述高層語言處理模塊進一步執(zhí)行相應(yīng)的自然語言理解。其中,要素抽取的任務(wù)具體來說就是抽取輸入句子中的要素并且進行標(biāo)記。例如,在該對比實驗中,作為示例,采用的數(shù)據(jù)集 合是航空交通信息系統(tǒng)(airtravelinformationsystem,atis),并且要素抽取的具體任務(wù)是:今天從波士頓到西雅圖的航班,執(zhí)行要素抽取后的結(jié)果為以下表1所示:表1要素抽取的結(jié)果輸入的句子今天從波士頓到西雅圖的航班輸出的要素標(biāo)注結(jié)果b-日期0b-出發(fā)地0b-到達地00其中,今天是日期的起始詞(b-日期),波士頓是出發(fā)地的起始詞(b-出發(fā)地),西雅圖是到達地的起始詞(b-到達地),并且“0”表示非要素詞。應(yīng)指出,根據(jù)該示例,本公開的方案可應(yīng)用于例如航旅訂票系統(tǒng)、日程安排系統(tǒng)等產(chǎn)品中。當(dāng)然,由于本公開的方案涉及基礎(chǔ)的詞嵌入技術(shù),還可以廣泛地被應(yīng)用于多種其他語言理解場景。近年來的研究表明,循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrentneuralnetwork,rnn)在要素抽取任務(wù)中能夠獲得更好的性能,因此,在本實驗中,分別采用兩種類型的rnn(即,埃爾曼型rnn和喬丹型rnn)來驗證本發(fā)明的效果,并且參與實驗對比的詞嵌入技術(shù)包括:隨機法、word2vec、glove、基于word2vec和glove的cca方案、dcca方案以及dccae方案。這里用于衡量要素抽取任務(wù)中的性能的指標(biāo)定義為f1測度,其表示準確率和召回率的調(diào)和平均值。以下表2示出了實驗對比結(jié)果:表2性能比較結(jié)果從上表可以看出,無論是哪種類型的循環(huán)神經(jīng)網(wǎng)絡(luò),根據(jù)本公開的技術(shù)所建立的多視角文本特征表示模型均能夠?qū)崿F(xiàn)更優(yōu)的性能。此外,盡管這里未具體描述,但是根據(jù)本公開的技術(shù)所建立的多視角文本特征表示模型在其它自然語言理解任務(wù)中同樣可以實現(xiàn)更優(yōu)的性能。應(yīng)理解,根據(jù)本公開的實施例的存儲介質(zhì)和程序產(chǎn)品中的機器可執(zhí)行 的指令還可以被執(zhí)行以上描述的用于文本處理的方法,因此在此未詳細描述的部分可參考先前相應(yīng)位置的描述,在此不再重復(fù)進行描述。相應(yīng)地,用于承載上述存儲有機器可讀取的指令代碼的程序產(chǎn)品的存儲介質(zhì)以及用于承載本公開的多視角文本特征表示模型的存儲介質(zhì)也包括在本發(fā)明的公開中。所述存儲介質(zhì)包括但不限于軟盤、光盤、磁光盤、存儲卡、存儲棒等等。另外,還應(yīng)該指出的是,上述系列處理和裝置也可以通過軟件和/或固件實現(xiàn)。在通過軟件和/或固件實現(xiàn)的情況下,從存儲介質(zhì)或網(wǎng)絡(luò)向具有專用硬件結(jié)構(gòu)的計算機,例如圖8所示的通用個人計算機800安裝構(gòu)成該軟件的程序,該計算機在安裝有各種程序時,能夠執(zhí)行各種功能等等。在圖8中,中央處理單元(cpu)801根據(jù)只讀存儲器(rom)802中存儲的程序或從存儲部分808加載到隨機存取存儲器(ram)803的程序執(zhí)行各種處理。在ram803中,也根據(jù)需要存儲當(dāng)cpu801執(zhí)行各種處理等等時所需的數(shù)據(jù)。cpu801、rom802和ram803經(jīng)由總線804彼此連接。輸入/輸出接口805也連接到總線804。下述部件連接到輸入/輸出接口805:輸入部分806,包括鍵盤、鼠標(biāo)等等;輸出部分807,包括顯示器,比如陰極射線管(crt)、液晶顯示器(lcd)等等,和揚聲器等等;存儲部分808,包括硬盤等等;和通信部分809,包括網(wǎng)絡(luò)接口卡比如lan卡、調(diào)制解調(diào)器等等。通信部分809經(jīng)由網(wǎng)絡(luò)比如因特網(wǎng)執(zhí)行通信處理。根據(jù)需要,驅(qū)動器810也連接到輸入/輸出接口805。可拆卸介質(zhì)811比如磁盤、光盤、磁光盤、半導(dǎo)體存儲器等等根據(jù)需要被安裝在驅(qū)動器810上,使得從中讀出的計算機程序根據(jù)需要被安裝到存儲部分808中。在通過軟件實現(xiàn)上述系列處理的情況下,從網(wǎng)絡(luò)比如因特網(wǎng)或存儲介質(zhì)比如可拆卸介質(zhì)811安裝構(gòu)成軟件的程序。本領(lǐng)域的技術(shù)人員應(yīng)當(dāng)理解,這種存儲介質(zhì)不局限于圖8所示的其中存儲有程序、與設(shè)備相分離地分發(fā)以向用戶提供程序的可拆卸介質(zhì)811??刹鹦督橘|(zhì)811的例子包含磁盤(包含軟盤(注冊商標(biāo)))、光盤(包含光盤只讀存儲器(cd-rom)和數(shù)字通用盤(dvd))、磁光盤(包含迷你盤(md)(注冊商標(biāo)))和半導(dǎo)體存儲器?;蛘?,存儲介質(zhì)可以是rom802、存儲部分808中包含的硬盤等等,其中存有程序,并且與包含它們的設(shè)備 一起被分發(fā)給用戶。還需要指出的是,執(zhí)行上述系列處理的步驟可以自然地根據(jù)說明的順序按時間順序執(zhí)行,但是并不需要一定根據(jù)時間順序執(zhí)行。某些步驟可以并行或彼此獨立地執(zhí)行。例如,在以上實施例中包括在一個單元中的多個功能可以由分開的裝置來實現(xiàn)。替選地,在以上實施例中由多個單元實現(xiàn)的多個功能可分別由分開的裝置來實現(xiàn)。另外,以上功能之一可由多個單元來實現(xiàn)。無需說,這樣的配置包括在本公開的技術(shù)范圍內(nèi)。在該說明書中,流程圖中所描述的步驟不僅包括以所述順序按時間序列執(zhí)行的處理,而且包括并行地或單獨地而不是必須按時間序列執(zhí)行的處理。此外,甚至在按時間序列處理的步驟中,無需說,也可以適當(dāng)?shù)馗淖冊擁樞颉km然已經(jīng)詳細說明了本公開及其優(yōu)點,但是應(yīng)當(dāng)理解在不脫離由所附的權(quán)利要求所限定的本公開的精神和范圍的情況下可以進行各種改變、替代和變換。而且,本公開實施例的術(shù)語“包括”、“包含”或者其任何其他變體意在涵蓋非排他性的包含,從而使得包括一系列要素的過程、方法、物品或者設(shè)備不僅包括那些要素,而且還包括沒有明確列出的其他要素,或者是還包括為這種過程、方法、物品或者設(shè)備所固有的要素。在沒有更多限制的情況下,由語句“包括一個......”限定的要素,并不排除在包括所述要素的過程、方法、物品或者設(shè)備中還存在另外的相同要素。當(dāng)前第1頁12