本發(fā)明涉及ai計(jì)算,尤其涉及一種基于多智能體的知識(shí)增強(qiáng)學(xué)習(xí)方法及系統(tǒng)。
背景技術(shù):
1、隨著人工智能和自然語(yǔ)言處理技術(shù)的快速發(fā)展,生成式預(yù)訓(xùn)練大語(yǔ)言模型(如gpt-3、bert、ernie等)在各種自然語(yǔ)言處理任務(wù)中展現(xiàn)出了強(qiáng)大的能力。這些模型通過大規(guī)模數(shù)據(jù)的訓(xùn)練,能夠生成高質(zhì)量的文本,并在問答、翻譯、摘要等任務(wù)中取得了顯著的效果。當(dāng)前,已有多種與本發(fā)明相關(guān)的技術(shù)發(fā)展,包括但不限于:生成式預(yù)訓(xùn)練大語(yǔ)言模型:如openai的gpt-3、百度的ernie等,這些模型通過海量數(shù)據(jù)訓(xùn)練,具備強(qiáng)大的語(yǔ)言生成和理解能力。知識(shí)庫(kù)問答系統(tǒng):基于知識(shí)圖譜或數(shù)據(jù)庫(kù)的問答系統(tǒng),通過檢索和匹配技術(shù),為用戶提供答案,如ibm?watson、百度知道等。多智能體系統(tǒng):在智能體系統(tǒng)中,每個(gè)智能體承擔(dān)不同的任務(wù),通過協(xié)作和交互,提高系統(tǒng)的整體性能,如智能客服系統(tǒng)、多任務(wù)機(jī)器人系統(tǒng)等。
2、盡管現(xiàn)有技術(shù)已經(jīng)取得了顯著進(jìn)步,但在實(shí)際應(yīng)用中仍存在一些缺點(diǎn)和挑戰(zhàn),具體包括:現(xiàn)有的生成式預(yù)訓(xùn)練大語(yǔ)言模型在處理專有領(lǐng)域推理任務(wù)時(shí),往往表現(xiàn)出推理能力不足,無法準(zhǔn)確理解和回答相應(yīng)問題。此外,這些模型在生成答案時(shí),有時(shí)會(huì)出現(xiàn)錯(cuò)誤信息或不準(zhǔn)確的回答,影響用戶體驗(yàn)。許多現(xiàn)有的大語(yǔ)言模型缺乏實(shí)時(shí)處理能力,無法利用實(shí)時(shí)的互聯(lián)網(wǎng)信息生成答案,生成的文本缺乏時(shí)效性。此外,生成的答案往往缺乏可解釋性,用戶難以理解模型的推理過程和答案的來源,影響信任度和可用性。大語(yǔ)言模型的訓(xùn)練通常需要大量的計(jì)算資源和時(shí)間,成本高昂,且對(duì)硬件和軟件環(huán)境要求較高,限制了其廣泛應(yīng)用。以openai的gpt-3和百度的ernie為例,這些模型的參數(shù)規(guī)模達(dá)到了千億級(jí)別,訓(xùn)練和推理成本非常高?,F(xiàn)有的知識(shí)庫(kù)問答系統(tǒng),尤其是基于靜態(tài)知識(shí)圖譜的系統(tǒng),知識(shí)更新不及時(shí),難以提供最新的答案和信息,影響用戶對(duì)實(shí)時(shí)信息的獲取和決策。單一的大語(yǔ)言模型在處理長(zhǎng)文本任務(wù)時(shí)存在明顯局限性。超出模型的上下文范圍,或是問題中的約束太過復(fù)雜時(shí),模型難以一次性理解并處理。這限制了大模型在處理涉及長(zhǎng)文本和復(fù)雜任務(wù)中的應(yīng)用效果。
技術(shù)實(shí)現(xiàn)思路
1、鑒于上述現(xiàn)有技術(shù)中存在的問題,提出了本發(fā)明。
2、因此,本發(fā)明提供了一種基于多智能體的知識(shí)增強(qiáng)學(xué)習(xí)方法,能夠解決傳統(tǒng)的大模型實(shí)時(shí)性和可解釋性欠缺、知識(shí)更新不及時(shí)、處理長(zhǎng)文本任務(wù)的能力有限的問題。
3、為解決上述技術(shù)問題,本發(fā)明提供如下技術(shù)方案,一種基于多智能體的知識(shí)增強(qiáng)學(xué)習(xí)方法,包括:使用針對(duì)預(yù)訓(xùn)練大語(yǔ)言模型的有監(jiān)督微調(diào)的訓(xùn)練方法,修改大語(yǔ)言模型參數(shù);構(gòu)建大語(yǔ)言模型的知識(shí)庫(kù),向量化、存儲(chǔ)和檢索多種文件格式的文本;開發(fā)多智能體工作流優(yōu)化信息處理和決策流程,分解實(shí)時(shí)性問題,構(gòu)建解決問題的邏輯鏈、獲取和過濾,總結(jié)互聯(lián)網(wǎng)文本。
4、作為本發(fā)明所述的一種基于多智能體的知識(shí)增強(qiáng)學(xué)習(xí)方法的一種優(yōu)選方案,其中:所述針對(duì)預(yù)訓(xùn)練大語(yǔ)言模型的有監(jiān)督微調(diào)的訓(xùn)練方法包括數(shù)據(jù)預(yù)處理、問答文本生成、后處理方法和大語(yǔ)言模型全參數(shù)微調(diào)方法;
5、所述數(shù)據(jù)預(yù)處理包括對(duì)數(shù)據(jù)敏感信息的過濾和文本對(duì)齊方法;
6、所述問答文本生成包括使用輸入給千億及以上規(guī)模大語(yǔ)言模型的若干提示詞,根據(jù)預(yù)處理后的數(shù)據(jù)整理出多條遞進(jìn)問題,根據(jù)問題生成對(duì)應(yīng)的回答,得到多條問答文本;
7、所述后處理包括對(duì)千億及以上規(guī)模大模型返回結(jié)果的填充、文本分割和格式化方法;
8、所述全參數(shù)微調(diào)包括模型全參數(shù)微調(diào)所需的訓(xùn)練參數(shù)配置和推理參數(shù)配置。
9、作為本發(fā)明所述的一種基于多智能體的知識(shí)增強(qiáng)學(xué)習(xí)方法的一種優(yōu)選方案,其中:所述構(gòu)建大語(yǔ)言模型知識(shí)庫(kù)包括文本分割方法和相似性文本距離算法;
10、所述文本分割方法包括將原始文本分割為片段,控制每個(gè)片段的長(zhǎng)度上限和下限,并保證每個(gè)片段中的每個(gè)語(yǔ)句完整,根據(jù)中文和英文的標(biāo)點(diǎn)符號(hào),使用正則表達(dá)式分割原始文本,形成句子序列s,
11、s=split(text,regex(′[,。?。??,.!;?]+′))
12、其中,split(·)為字符串分割函數(shù),regex(·)為正則表達(dá)式,text為原始文本;
13、對(duì)分割后得到的每個(gè)句子修剪,排除空白或無內(nèi)容的句子,
14、s={s∈s:s≠”and?s≠”}
15、其中,s為分割后的獨(dú)立句子;
16、通過迭代句子序列s,將句子組合為不超過預(yù)設(shè)最大字符數(shù)n的文本塊,檢查當(dāng)前文本塊c的長(zhǎng)度,根據(jù)需要將句子添加到當(dāng)前塊或開始新塊,
17、c=c+s?if|c|+|s|+1≤n
18、對(duì)于超過預(yù)設(shè)最大字符數(shù)n的文本塊,分割為多個(gè)塊,每個(gè)塊的長(zhǎng)度不超過n,
19、while|s|>n:添加s[0:n]到塊列表
20、s=s[n:]
21、將塊文本列表按批量大小b進(jìn)行分組,對(duì)每個(gè)批量獲取嵌入向量,
22、for?each?batchb?in?chunks:embeddings=get_embedding(b)
23、其中,for?each?batchb?in?chunks為對(duì)chunks的集合中的每一個(gè)元素進(jìn)行循環(huán)迭代,embeddings為嵌入向量的存儲(chǔ)變量,get_embedding(·)為生成文本嵌入向量的函數(shù),b為單個(gè)批次的變量。
24、作為本發(fā)明所述的一種基于多智能體的知識(shí)增強(qiáng)學(xué)習(xí)方法的一種優(yōu)選方案,其中:所述相似性文本距離算法包括計(jì)算輸入文本段和知識(shí)庫(kù)中每個(gè)文本段相似度的值,最相似的若干段文本作為背景資料輔助大語(yǔ)言模型回答問題,確認(rèn)查詢文本q的長(zhǎng)度不超過預(yù)設(shè)最大長(zhǎng)度l,若超過,則將文本截?cái)?,若未超過,則不做處理,表示為,
25、q=q[:l]if|q|>l
26、對(duì)查詢文本q進(jìn)行嵌入處理,得到q的向量表示q_embd,
27、q_embd=get_embedding(q)
28、加載已經(jīng)預(yù)處理并存儲(chǔ)的文檔集合documents,并從中提取每個(gè)文檔doc的嵌入向量doc_embds,
29、doc_embds=[doc['embedding']for?doc?in?documents
30、查詢向量q_embd與所有文檔嵌入向量doc_embds之間的相似度,余弦相似度公式表示為,
31、
32、其中,cos_sims為余弦相似度,axis=1為對(duì)每個(gè)文檔向量分別計(jì)算范數(shù),np.dot(·)為numpy的dot函數(shù),norm(·)為計(jì)算向量的范數(shù);
33、根據(jù)計(jì)算得到的相似度cos_sims,選取相似度最高的m個(gè)文檔,
34、top_indices=np.argsort(-cos_sims)[:m]
35、其中,top_indices為相似度最高的文檔的索引,np.argsort(·)為索引排序函數(shù);
36、構(gòu)建并返回一個(gè)包含最相關(guān)文檔的詳細(xì)信息列表top_documents,包括文檔的id、內(nèi)容content和相應(yīng)的相似度分?jǐn)?shù)score,
37、top_documents=['id':documents[i]['id'],
38、'content':documents[i]['content'],
39、'score':cos_sims[i]for?iin?top_indices]
40、其中,i為最相關(guān)文檔的索引。
41、作為本發(fā)明所述的一種基于多智能體的知識(shí)增強(qiáng)學(xué)習(xí)方法的一種優(yōu)選方案,其中:所述多智能體工作流優(yōu)化信息處理和決策流程包括輸入每個(gè)智能體的提示詞和智能體之間的調(diào)用關(guān)系,智能體的提示詞規(guī)定大模型的輸出和輸出格式,指定大模型分析問題的邏輯思路,智能體之間的調(diào)用關(guān)系規(guī)定針對(duì)同一個(gè)問題大模型執(zhí)行的先后順序以及輸出、輸出結(jié)果的流動(dòng)順序。
42、作為本發(fā)明所述的一種基于多智能體的知識(shí)增強(qiáng)學(xué)習(xí)方法的一種優(yōu)選方案,其中:所述互聯(lián)網(wǎng)文本包括搜索引擎和新聞網(wǎng)站網(wǎng)頁(yè)文本;
43、所述總結(jié)互聯(lián)網(wǎng)文本包括網(wǎng)頁(yè)文本的獲取方法和提高讀取網(wǎng)頁(yè)元素速度的優(yōu)化方法,所述網(wǎng)頁(yè)文本的獲取方法包括對(duì)搜索結(jié)果的提取方法和對(duì)任一搜索結(jié)果文本的提取方法。
44、作為本發(fā)明所述的一種基于多智能體的知識(shí)增強(qiáng)學(xué)習(xí)方法的一種優(yōu)選方案,其中:所述提高讀取網(wǎng)頁(yè)元素速度的優(yōu)化方法包括將基于python的selenium網(wǎng)頁(yè)元素搜索獲取操作轉(zhuǎn)換為javascript執(zhí)行方式,使用javascript腳本,通過document.queryselectorall一次性定位所有相關(guān)元素,收集數(shù)據(jù),整個(gè)數(shù)據(jù)提取過程在客戶端完成,減少網(wǎng)絡(luò)延遲和數(shù)據(jù)傳輸造成的開銷,通過一次性查詢和批量處理數(shù)據(jù),減少對(duì)dom的頻繁訪問和修改。
45、本發(fā)明的另外一個(gè)目的是提供一種基于多智能體的知識(shí)增強(qiáng)學(xué)習(xí)系統(tǒng),提升大語(yǔ)言模型在處理專有領(lǐng)域推理任務(wù)時(shí)的能力,尤其是提高其實(shí)時(shí)性和可解釋性,優(yōu)化長(zhǎng)文本任務(wù)的處理效率。本發(fā)明的方法通過結(jié)合有監(jiān)督微調(diào)訓(xùn)練、多元化的知識(shí)庫(kù)構(gòu)建以及多智能體工作流的設(shè)計(jì),顯著提升模型的響應(yīng)速度和準(zhǔn)確性。本發(fā)明通過實(shí)時(shí)更新知識(shí)庫(kù)和優(yōu)化模型訓(xùn)練,有效減少了訓(xùn)練成本和時(shí)間,同時(shí)增強(qiáng)了模型在特定領(lǐng)域內(nèi)的應(yīng)用能力,解決了現(xiàn)有技術(shù)中知識(shí)更新不及時(shí)和處理長(zhǎng)文本任務(wù)能力有限的問題。
46、作為本發(fā)明所述的一種基于多智能體的知識(shí)增強(qiáng)學(xué)習(xí)系統(tǒng)的一種優(yōu)選方案,其中:包括模型微調(diào)模塊、知識(shí)庫(kù)構(gòu)建模塊和多智能體工作流模塊;
47、所述模型微調(diào)模塊,對(duì)預(yù)訓(xùn)練大語(yǔ)言模型進(jìn)行有監(jiān)督的微調(diào),包括數(shù)據(jù)預(yù)處理、問答文本生成、后處理和模型的全參數(shù)微調(diào);
48、所述知識(shí)庫(kù)構(gòu)建模塊,為大語(yǔ)言模型創(chuàng)建知識(shí)庫(kù),用于向量化、存儲(chǔ)和檢索多種文件格式的文本,有助于模型更有效地訪問和利用存儲(chǔ)的知識(shí);
49、所述多智能體工作流模塊,通過多智能體工作流分解復(fù)雜的實(shí)時(shí)性問題并構(gòu)建解決問題的邏輯鏈,還包括獲取、過濾和總結(jié)互聯(lián)網(wǎng)文本的技術(shù),使得模型能夠利用最新信息,提高其應(yīng)答的實(shí)時(shí)性和準(zhǔn)確性。
50、一種計(jì)算機(jī)設(shè)備,包括存儲(chǔ)器和處理器,所述存儲(chǔ)器存儲(chǔ)有計(jì)算機(jī)程序,其特征在于,所述處理器執(zhí)行所述計(jì)算機(jī)程序時(shí)實(shí)現(xiàn)一種基于多智能體的知識(shí)增強(qiáng)學(xué)習(xí)方法中任一項(xiàng)所述的方法的步驟。
51、一種計(jì)算機(jī)可讀存儲(chǔ)介質(zhì),其上存儲(chǔ)有計(jì)算機(jī)程序,其特征在于,所述計(jì)算機(jī)程序被處理器執(zhí)行時(shí)實(shí)現(xiàn)一種基于多智能體的知識(shí)增強(qiáng)學(xué)習(xí)方法中任一項(xiàng)所述的方法的步驟。
52、本發(fā)明的有益效果:本發(fā)明采用了規(guī)模為7b的模型,相較于openai的gpt-3和百度的ernie等千億參數(shù)規(guī)模的大模型參數(shù)顯著減少,訓(xùn)練成本和推理成本大幅降低,顯著減輕了計(jì)算資源的消耗。這樣不僅使得模型訓(xùn)練和推理更加高效,還降低了硬件和軟件環(huán)境的要求,適用于資源有限的環(huán)境。本發(fā)明的模型在專有領(lǐng)域的數(shù)據(jù)集上進(jìn)行訓(xùn)練,特別關(guān)注特定領(lǐng)域的知識(shí)和任務(wù)。這種專注性使得模型在特定領(lǐng)域內(nèi)的表現(xiàn)更加出色,能夠更好地理解和處理專業(yè)術(shù)語(yǔ)和復(fù)雜問題,從而提供高準(zhǔn)確性和高效的知識(shí)檢索和問答服務(wù)。本發(fā)明設(shè)計(jì)了一個(gè)多智能體系統(tǒng),每個(gè)智能體在系統(tǒng)中承擔(dān)不同的角色或任務(wù),通過智能體之間的高效協(xié)作和交互來提高整體性能;對(duì)于復(fù)雜的長(zhǎng)文本任務(wù),通過多智能體的分工和協(xié)作,可以有效分解問題,過濾和總結(jié)獲取的文本信息,從而解決復(fù)雜任務(wù),提升了系統(tǒng)的處理能力和靈活性。利用多智能體系統(tǒng)的分工協(xié)作,將長(zhǎng)文本任務(wù)分解為多個(gè)小任務(wù),每個(gè)智能體分別處理不同類型的任務(wù);這種方法解決了單一大語(yǔ)言模型在處理長(zhǎng)文本任務(wù)時(shí)容易超出上下文范圍和難以理解復(fù)雜約束的問題,使得系統(tǒng)在處理涉及長(zhǎng)文本和復(fù)雜任務(wù)時(shí)表現(xiàn)更佳。結(jié)合知識(shí)庫(kù)、向量數(shù)據(jù)庫(kù)和實(shí)時(shí)爬蟲技術(shù),提供在線實(shí)時(shí)檢索能力;系統(tǒng)能夠提供最新的數(shù)據(jù)和消息,確保用戶訪問到最新的信息,同時(shí)提高了信息的動(dòng)態(tài)性和系統(tǒng)的實(shí)時(shí)性。此外,通過多智能體的協(xié)作和交互,提高了模型推理過程的可解釋性,增強(qiáng)了用戶對(duì)系統(tǒng)的信任度和可用性。集成了基于爬蟲的功能,能夠自動(dòng)從權(quán)威網(wǎng)頁(yè)抓取最新的信息和詞條;知識(shí)庫(kù)可以定期更新,確保系統(tǒng)提供的答案和信息始終是最新的,幫助用戶及時(shí)獲取實(shí)時(shí)信息,支持快速?zèng)Q策和動(dòng)態(tài)應(yīng)對(duì)。