欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種對(duì)大模型智能體輸出單元極致優(yōu)化的方法及系統(tǒng)與流程

文檔序號(hào):40580739發(fā)布日期:2025-01-07 20:20閱讀:6來(lái)源:國(guó)知局
一種對(duì)大模型智能體輸出單元極致優(yōu)化的方法及系統(tǒng)與流程

本發(fā)明涉及大模型智能體;具體而言,涉及一種對(duì)大模型智能體輸出單元極致優(yōu)化的方法及系統(tǒng)。


背景技術(shù):

1、隨著人工智能技術(shù)的快速演進(jìn),自然語(yǔ)言處理、機(jī)器翻譯和智能問(wèn)答等領(lǐng)域的大模型應(yīng)用得到了廣泛關(guān)注和使用。

2、然而,在這些大模型應(yīng)用中,大模型工具調(diào)用方法面臨著顯著的效率挑戰(zhàn),特別是在需要低延時(shí)響應(yīng)的情況下,這一問(wèn)題尤為明顯。

3、自然語(yǔ)言處理(nlp)技術(shù)的進(jìn)步使得大模型能夠以更高的精度和速度執(zhí)行各種語(yǔ)言任務(wù)。這些模型通過(guò)大規(guī)模的預(yù)訓(xùn)練和微調(diào),展現(xiàn)了強(qiáng)大的理解和生成語(yǔ)言的能力。

4、然而,傳統(tǒng)方法在智能體使用工具任務(wù)中,大模型以特定形式輸出工具列表(json化工具生成),等待工具生成,然后處理這些工具,大大增加了響應(yīng)延時(shí),這種方式應(yīng)用在要求低延時(shí)的系統(tǒng)中時(shí)直接導(dǎo)致用戶(hù)體驗(yàn)大大降低。

5、現(xiàn)有技術(shù)中大模型通常采用的以json格式({'name':?'device_control',?'parameters':?{'device':?'空調(diào)',?'command':?'關(guān)閉'}}?)輸出工具列表,盡管json格式具有結(jié)構(gòu)清晰、易于解析的優(yōu)點(diǎn),在簡(jiǎn)單任務(wù)中的性能表現(xiàn)良好,但是在復(fù)雜任務(wù)中則會(huì)導(dǎo)致解析延遲和處理效率的下降。json格式中的冗余信息和原函數(shù)名的直接輸出,進(jìn)一步增加了token數(shù)量,也就增加了響應(yīng)耗時(shí),使用json格式和原函數(shù)名直接輸出帶來(lái)的冗余token顯著增加了解析和處理時(shí)間,降低了系統(tǒng)性能。

6、通過(guò)對(duì)現(xiàn)有技術(shù)的技術(shù)問(wèn)題的深入分析,發(fā)現(xiàn)當(dāng)前大模型在高token輸出速率下的性能瓶頸主要集中在兩個(gè)方面:一是json格式的冗余信息處理,二是原函數(shù)名的直接輸出導(dǎo)致的token數(shù)量過(guò)多。

7、因此,如何減少token數(shù)量和優(yōu)化輸出格式,以提升系統(tǒng)運(yùn)行效率和用戶(hù)體驗(yàn),成為當(dāng)前亟待解決的難點(diǎn)問(wèn)題。


技術(shù)實(shí)現(xiàn)思路

1、鑒于此,本發(fā)明的目的在于設(shè)計(jì)一種新的大模型工具調(diào)用方法和系統(tǒng),通過(guò)改進(jìn)大模型工具調(diào)用的輸出格式,減少token的輸出數(shù)量,通過(guò)編碼原函數(shù)名、去除冗余的json格式,有效地減少token數(shù)量,精簡(jiǎn)輸出token,直接對(duì)輸出格式進(jìn)行處理,優(yōu)化工具信息輸出格式,減少每個(gè)工具的輸出耗時(shí),以達(dá)到快速響應(yīng)的目的,解決現(xiàn)階段大模型工具調(diào)用系統(tǒng)中因token輸出過(guò)多而導(dǎo)致的效率低下問(wèn)題,適合應(yīng)用在要求低延時(shí)的系統(tǒng)中;通過(guò)減少輸出單元數(shù)量和優(yōu)化輸出格式,顯著提升大模型的運(yùn)行速度和整體運(yùn)行效率,還能夠帶來(lái)更好的用戶(hù)體驗(yàn)。

2、本發(fā)明提供一種對(duì)大模型智能體輸出單元極致優(yōu)化的方法,包括以下步驟:

3、s1、使用壓縮算法對(duì)大模型生成的內(nèi)容進(jìn)行壓縮,直接生成壓縮后的編碼;

4、s2、優(yōu)化大模型輸出的token數(shù)量,對(duì)token進(jìn)行定制化的編碼,包括:工具名和參數(shù)名壓縮、json結(jié)構(gòu)壓縮、特殊符號(hào)連接詞壓縮;

5、本發(fā)明通過(guò)通過(guò)自定義token化工具(例如byte-pair?encoding,bpe法)定義該特定領(lǐng)域內(nèi)特有的token,使分詞和生成過(guò)程更加高效;

6、s3、專(zhuān)注于特定領(lǐng)域的數(shù)據(jù),微調(diào)大模型(gpt等),訓(xùn)練大模型能夠識(shí)別該特定領(lǐng)域的數(shù)據(jù),并生成更加簡(jiǎn)潔的編碼方式,適應(yīng)s1、s2步驟的壓縮要求。提高處理效率。

7、本發(fā)明通過(guò)多層次壓縮與優(yōu)化,結(jié)合編碼與訓(xùn)練,進(jìn)一步減少了token數(shù)量和響應(yīng)時(shí)間。

8、具體地,所述多層次壓縮包括以下層次:壓縮算法層、詞匯層、結(jié)構(gòu)層、符號(hào)層、模型層;

9、所述壓縮算法層應(yīng)用gzip、brotli等壓縮算法對(duì)語(yǔ)言模型生成的內(nèi)容整體進(jìn)行壓縮;

10、所述詞匯層用于定制化字段名壓縮,減少長(zhǎng)字段名帶來(lái)的開(kāi)銷(xiāo);

11、所述結(jié)構(gòu)層用于優(yōu)化json等結(jié)構(gòu),減少格式冗余;

12、所述符號(hào)層利用特殊符號(hào)的壓縮和表示,減少token數(shù)量;

13、所述模型層通過(guò)微調(diào)模型,優(yōu)化生成方式以適應(yīng)上述層次的壓縮要求。

14、進(jìn)一步地,所述s3步驟的微調(diào)大模型的方法包括以下步驟:

15、s31、收集和準(zhǔn)備該特定領(lǐng)域內(nèi)的大量數(shù)據(jù),包含該特定領(lǐng)域特定的縮寫(xiě)、編碼方式、以及句式結(jié)構(gòu);

16、s32、使用收集到的數(shù)據(jù)對(duì)大模型進(jìn)行微調(diào)訓(xùn)練,使大模型了解并使用該特定領(lǐng)域的簡(jiǎn)潔編碼方式。

17、進(jìn)一步地,所述s2步驟的所述工具名和參數(shù)名壓縮的方法包括:為工具名和參數(shù)建立短代碼,減少長(zhǎng)字段名帶來(lái)的開(kāi)銷(xiāo);例如?`getweather`可以簡(jiǎn)寫(xiě)為`gw`。

18、示例為:?`getweather`?->`gw`

19、示例為:?`getdevicestatus`?->`gds`

20、進(jìn)一步地,所述s2步驟的所述json結(jié)構(gòu)壓縮的方法包括:對(duì)字段名稱(chēng)和常見(jiàn)值進(jìn)行編碼,減少json結(jié)構(gòu)中的冗余信息,使json結(jié)構(gòu)更簡(jiǎn)潔;

21、示例為:?`{'name':?'device_control',?'parameters':?{'device':?'空調(diào)','command':?'關(guān)閉'}}`?->`dc|d=空調(diào),c=關(guān)閉`

22、示例為:?`{'status':?'active',?'data':?[123,?456,?789]}`?->`a|d[123,456,789]`。

23、進(jìn)一步地,所述s2步驟的所述特殊符號(hào)連接詞壓縮包括:對(duì)特殊符號(hào)(如等號(hào)、分隔符)進(jìn)行專(zhuān)門(mén)優(yōu)化,使特殊符號(hào)在領(lǐng)域內(nèi)成為單個(gè)token,減少token數(shù)量;優(yōu)選地,可通過(guò)微調(diào)訓(xùn)練模型進(jìn)一步增強(qiáng)效果;

24、示例為:?`dc|d=空調(diào),c=關(guān)閉`?->`dc|是一個(gè)token`。

25、進(jìn)一步地,所述s1步驟的所述壓縮算法包括:gzip壓縮算法、brotli壓縮算法或lempel-ziv-welch?(lzw)壓縮算法;

26、例如使用gzip、lempel-ziv-welch?(lzw)?或?brotli?等壓縮算法對(duì)生成的內(nèi)容進(jìn)行壓縮。

27、gzip壓縮算法是一種流行的壓縮算法,廣泛用于減少文件大小。

28、brotli壓縮算法由google開(kāi)發(fā)的壓縮算法,具有更高的壓縮比和更快的解壓速度。

29、本發(fā)明還提供一種對(duì)大模型智能體輸出單元極致優(yōu)化的系統(tǒng),執(zhí)行如上述所述的對(duì)大模型智能體輸出單元極致優(yōu)化的方法,包括:

30、壓縮編碼模塊:用于使用壓縮算法對(duì)大模型生成的內(nèi)容進(jìn)行壓縮,直接生成壓縮后的編碼;

31、垂直領(lǐng)域編碼模塊:用于優(yōu)化大模型輸出的token數(shù)量,對(duì)token進(jìn)行定制化的編碼,包括:工具名和參數(shù)名壓縮、json結(jié)構(gòu)壓縮、特殊符號(hào)連接詞壓縮;

32、微調(diào)訓(xùn)練模塊:用于專(zhuān)注于特定領(lǐng)域的數(shù)據(jù),微調(diào)大模型,訓(xùn)練大模型能夠識(shí)別該特定領(lǐng)域的數(shù)據(jù),并生成更加簡(jiǎn)潔的編碼方式,適應(yīng)s1、s2步驟的壓縮要求。

33、進(jìn)一步地,所述微調(diào)訓(xùn)練模塊包括:

34、微調(diào)訓(xùn)練數(shù)據(jù)準(zhǔn)備單元:用于收集和準(zhǔn)備該特定領(lǐng)域內(nèi)的大量數(shù)據(jù),包含該特定領(lǐng)域特定的縮寫(xiě)、編碼方式、以及句式結(jié)構(gòu);

35、微調(diào)模型訓(xùn)練單元:用于使用收集到的數(shù)據(jù)對(duì)大模型進(jìn)行微調(diào)訓(xùn)練,使大模型了解并使用該特定領(lǐng)域的簡(jiǎn)潔編碼方式。

36、本發(fā)明還提供一種計(jì)算機(jī)可讀存儲(chǔ)介質(zhì),其上存儲(chǔ)有計(jì)算機(jī)程序,所述程序被處理器執(zhí)行時(shí)實(shí)現(xiàn)如上述所述的對(duì)大模型智能體輸出單元極致優(yōu)化的方法的步驟。

37、本發(fā)明還提供一種計(jì)算機(jī)設(shè)備,所述計(jì)算機(jī)設(shè)備包括存儲(chǔ)器、處理器及存儲(chǔ)在存儲(chǔ)器上并可在處理器上運(yùn)行的計(jì)算機(jī)程序,所述處理器執(zhí)行所述程序時(shí)實(shí)現(xiàn)如上述所述的對(duì)大模型智能體輸出單元極致優(yōu)化的方法的步驟。

38、與現(xiàn)有技術(shù)相比,本發(fā)明的有益效果在于:

39、本發(fā)明提供的對(duì)大模型智能體輸出單元極致優(yōu)化的方法及系統(tǒng)通過(guò)減少token數(shù)量和優(yōu)化字符串處理,大模型工具調(diào)用的運(yùn)行速度得到顯著提升;精簡(jiǎn)后的token輸出減少了處理時(shí)間,提高了處理效率,顯著提高了系統(tǒng)的整體效率,特別適合應(yīng)用在要求低延時(shí)的系統(tǒng)中;優(yōu)化的字符串處理方式使得工具調(diào)用更加迅速和準(zhǔn)確,增強(qiáng)了工具調(diào)用準(zhǔn)確性,減少了由于解析時(shí)間過(guò)長(zhǎng)帶來(lái)的各種問(wèn)題;運(yùn)行效率的提升也提高了操作效率,用戶(hù)在實(shí)際操作中具有更快的響應(yīng)速度和更流暢的交互體驗(yàn),顯著改善了用戶(hù)體驗(yàn)。

當(dāng)前第1頁(yè)1 2 
網(wǎng)友詢(xún)問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
巴南区| 安平县| 彝良县| 昌邑市| 克拉玛依市| 普安县| 长宁区| 正镶白旗| 淮阳县| 平湖市| 浑源县| 黎城县| 长葛市| 禄丰县| 馆陶县| 泰兴市| 孝昌县| 平潭县| 肇庆市| 克东县| 涿州市| 莒南县| 汝南县| 昌平区| 太仓市| 隆回县| 桃江县| 两当县| 昆山市| 和田县| 楚雄市| 柏乡县| 琼结县| 蒙自县| 隆林| 寻乌县| 嵊泗县| 砀山县| 湘潭市| 平遥县| 华宁县|