本發(fā)明涉及傳感器校準(zhǔn),特別適用于一種基于神經(jīng)網(wǎng)絡(luò)的稱重傳感器校準(zhǔn)方法。
背景技術(shù):
1、隨著智能傳感器技術(shù)不斷創(chuàng)新和完善,自校準(zhǔn)功能在智能稱重傳感器中扮演越來越重要的角色。神經(jīng)網(wǎng)絡(luò)方法作為實(shí)現(xiàn)智能傳感器自校準(zhǔn)的一種途徑,具有強(qiáng)大的非線性建模能力、自適應(yīng)性和靈活性等優(yōu)點(diǎn),因此被廣泛應(yīng)用。elm(extreme?learning?machine,極限學(xué)習(xí)機(jī))算法能夠簡化模型調(diào)參復(fù)雜度,可用于智能傳感器自校準(zhǔn)。
2、公開號為“cn?116432520a”的專利文件中公開了“一種基于極限學(xué)習(xí)機(jī)算法的改進(jìn)型溫度補(bǔ)償方法”,其采用了傳統(tǒng)的elm模型,由于存在過擬合問題,因此在訓(xùn)練集上的性能表現(xiàn)較好,但在測試集上的性能卻并不理想。
3、由于elm算法存在過擬合的問題,可利用adam方法對elm的參數(shù)進(jìn)行更新優(yōu)化。公開號為“cn?112115638a”的專利文件中公開了“基于改進(jìn)adam算法優(yōu)化神經(jīng)網(wǎng)絡(luò)的變壓器故障診斷方法”,是在adam算法中添加步長擴(kuò)大因子和步長減小因子來加大步長的自適應(yīng)能力,但引入較多超參數(shù),需要反復(fù)調(diào)整以獲得最佳性能,增加了使用的復(fù)雜性。
4、公開號為“cn?113570414a”的專利文件中公開了“基于改進(jìn)adam算法優(yōu)化深度神經(jīng)網(wǎng)絡(luò)的電價(jià)預(yù)測方法”,是引入額外超參數(shù),從而更新adam算法的每步迭代量,但迭代量的計(jì)算涉及到了更多的操作,導(dǎo)致算法的復(fù)雜度增加。
5、上述文件存在的問題是:首先存在著過擬合的問題,在訓(xùn)練數(shù)據(jù)上表現(xiàn)優(yōu)異,測試集效果不理想。其次存在著高計(jì)算資源消耗的問題,增加算法的超參數(shù)數(shù)量會帶來一些不利影響,不但需要更加精細(xì)地調(diào)整這些參數(shù),以確保算法的性能和穩(wěn)定性,增加了調(diào)試和優(yōu)化的復(fù)雜度,同時(shí)隨著超參數(shù)數(shù)量的增加,算法的計(jì)算成本也將相應(yīng)增加,尤其是在處理大規(guī)模數(shù)據(jù)集或訓(xùn)練復(fù)雜模型時(shí),這可能導(dǎo)致更高的計(jì)算資源需求和時(shí)間開銷。
技術(shù)實(shí)現(xiàn)思路
1、針對現(xiàn)有技術(shù)存在過擬合和計(jì)算資源消耗高,在處理大規(guī)模數(shù)據(jù)集或訓(xùn)練復(fù)雜模型時(shí)導(dǎo)致更高的計(jì)算資源需求和時(shí)間開銷的問題,本發(fā)明提出一種基于神經(jīng)網(wǎng)絡(luò)的稱重傳感器校準(zhǔn)方法。
2、為達(dá)到本發(fā)明的目的,本發(fā)明提供的技術(shù)方案如下:一種基于神經(jīng)網(wǎng)絡(luò)的稱重傳感器校準(zhǔn)方法,包括以下步驟:
3、步驟一:進(jìn)行數(shù)據(jù)采集,將數(shù)據(jù)按比例分為訓(xùn)練樣本和測試樣本,并對其進(jìn)行歸一化處理,得到用于elm算法的實(shí)驗(yàn)數(shù)據(jù);
4、步驟二:初始化elm神經(jīng)網(wǎng)絡(luò)的相關(guān)參數(shù),初步構(gòu)建稱重傳感器校準(zhǔn)的elm神經(jīng)網(wǎng)絡(luò);
5、步驟三:在初步構(gòu)建好的elm神經(jīng)網(wǎng)絡(luò)中,通過改進(jìn)的adam算法優(yōu)化elm神經(jīng)網(wǎng)絡(luò)的相關(guān)參數(shù),具體步驟如下:
6、(一)設(shè)置adam算法的基礎(chǔ)參數(shù);
7、(二)設(shè)計(jì)adam算法中beta1、beta2參數(shù)的更新公式;
8、(三)根據(jù)迭代次數(shù)進(jìn)行更新;
9、(四)使用改進(jìn)的adam算法對基礎(chǔ)elm神經(jīng)網(wǎng)絡(luò)進(jìn)行權(quán)重、閾值更新,以獲得最優(yōu)的隱含層的輸出層的權(quán)重閾值;
10、步驟四:利用得到的最優(yōu)參數(shù)校準(zhǔn)稱重傳感器的輸出。
11、進(jìn)一步的,步驟三(一)中:所述基礎(chǔ)參數(shù)包括學(xué)習(xí)率alpha、最大迭代次數(shù)numepochs、epsilon;所述學(xué)習(xí)率alpha控制參數(shù)更新的步長,最大迭代次數(shù)numepochs用來終止迭代,所述epsilon在計(jì)算梯度的二階矩估計(jì)時(shí),被添加到分母中,防止分母為零。
12、進(jìn)一步的,步驟三(二)中:所述beta1、beta2參數(shù)的更新公式為:
13、
14、其中,epoch是當(dāng)前迭代數(shù),通過求取beta1之后,再通過式(2)求得beta2:
15、beta2=1-beta12?(2)
16、進(jìn)一步的,步驟三(三)中:所述更新包括以下具體步驟:
17、(1)使用設(shè)計(jì)的beta1、beta2參數(shù)的更新公式計(jì)算參數(shù)beta1、beta2,beta1用來控制一階矩估計(jì),beta2用來控制二階矩估計(jì);
18、(2)根據(jù)當(dāng)前權(quán)重、閾值計(jì)算預(yù)測值,并根據(jù)預(yù)測值和真實(shí)值計(jì)算損失值,如果損失值低于所設(shè)置的固定值,則結(jié)束循環(huán);如果損失值大于等于所設(shè)置的固定值,進(jìn)行下一步;
19、(3)計(jì)算隱含層到輸出層權(quán)重、閾值的梯度;
20、(4)計(jì)算權(quán)重的一階矩、二階矩;
21、(5)計(jì)算閾值的一階矩、二階矩;
22、(6)根據(jù)當(dāng)前的迭代數(shù)動態(tài)調(diào)整參數(shù)beta1、beta2,對基礎(chǔ)神經(jīng)網(wǎng)絡(luò)進(jìn)行梯度更新;
23、(7)判斷是否達(dá)到設(shè)置的迭代次數(shù),把當(dāng)前最小損失值所對應(yīng)的權(quán)重,閾值作為最優(yōu)結(jié)果保存,結(jié)束程序,否則繼續(xù)從步驟(1)循環(huán)。
24、進(jìn)一步的,所述(2)中損失值的計(jì)算公式為
25、
26、其中:yi是實(shí)際觀測值,yi'是預(yù)測值,n為訓(xùn)練樣本的數(shù)量。
27、進(jìn)一步的,所述(3)中,隱含層到輸出層權(quán)重、閾值的梯度的計(jì)算公式為
28、error=y(tǒng)i-yi'?(4)
29、
30、其中error是真實(shí)值與預(yù)測值的差值,dw權(quán)重的梯度,db是閾值的梯度。
31、進(jìn)一步的,所述(4)中,根據(jù)下式分別計(jì)算權(quán)重的一階矩、二階矩
32、
33、其中是當(dāng)前迭代的權(quán)重一階矩,是前次迭代的權(quán)重一階矩,是當(dāng)前迭代的權(quán)重二階矩,是前次迭代的權(quán)重二階矩。
34、進(jìn)一步的,所述(5)中,根據(jù)下式計(jì)算閾值的一階矩、二階矩
35、
36、其中是當(dāng)前迭代的權(quán)重一階矩,是前次迭代的權(quán)重一階矩,是當(dāng)前迭代的權(quán)重二階矩,是前次迭代的權(quán)重二階矩。
37、進(jìn)一步的,所述(6)中,根據(jù)下式更新權(quán)重、閾值
38、
39、其中l(wèi)wj是當(dāng)前迭代的權(quán)重,lwj-1是前次迭代的權(quán)重,bj是當(dāng)前迭代的權(quán)重,bj-1是前次迭代的權(quán)重。
40、與現(xiàn)有技術(shù)相比,本發(fā)明具有以下有益效果:
41、1、通過計(jì)算beta1和beta2,可以根據(jù)優(yōu)化過程的實(shí)際情況調(diào)整參數(shù)的衰減速度,有助于更好地控制梯度的估計(jì)和動量的累積,從而改善優(yōu)化過程的收斂性能。
42、2、beta1和beta2根據(jù)迭代次數(shù)進(jìn)行動態(tài)調(diào)整,可以減少算法在不同問題上的震蕩和不穩(wěn)定性,使得優(yōu)化過程更加平穩(wěn)和可靠。
43、3、通過使用改進(jìn)的adam方法優(yōu)化elm神經(jīng)網(wǎng)絡(luò),有助于提高校準(zhǔn)模型的泛化能力,能夠適應(yīng)不同的輸入數(shù)據(jù)分布,使得稱重傳感器在不同工作條件下都能夠保持較好的校準(zhǔn)效果。
44、4、該方法能夠?qū)ΨQ重傳感器在環(huán)境條件下的真值進(jìn)行校準(zhǔn),使得稱重傳感器輸出結(jié)果更加準(zhǔn)確、穩(wěn)定,可適用于不同類型的傳感器的校準(zhǔn)。
45、通過新的參數(shù)更新公式來調(diào)節(jié)經(jīng)典adam算法的參數(shù),增大搜索空間,提高搜索能力。通過采用改進(jìn)的adam算法對elm神經(jīng)網(wǎng)絡(luò)的隱含層到輸出層的權(quán)重和閾值進(jìn)行優(yōu)化,以提高校準(zhǔn)的效率和準(zhǔn)確性。這一方法的優(yōu)勢在于利用adam算法的快速收斂性和對超參數(shù)的自適應(yīng)調(diào)整能力,從而加速神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程并提高性能。