技術(shù)編號(hào):40563431
提示:您尚未登錄,請(qǐng)點(diǎn) 登 陸 后下載,如果您還沒(méi)有賬戶請(qǐng)點(diǎn) 注 冊(cè) ,登陸完成后,請(qǐng)刷新本頁(yè)查看技術(shù)詳細(xì)信息。本發(fā)明屬于芯片通信,具體涉及一種實(shí)現(xiàn)芯片雙模式互聯(lián)的方法。背景技術(shù)、在人工智能技術(shù),特別是人工智能大模型技術(shù)的迅猛發(fā)展背景下,對(duì)算力的需求呈現(xiàn)出爆發(fā)式增長(zhǎng)的趨勢(shì)。通常而言,大模型通常擁有數(shù)十億甚至數(shù)千億個(gè)參數(shù),由于大模型的計(jì)算量巨大,單個(gè)計(jì)算單元往往無(wú)法滿足訓(xùn)練需求,因此,分布式訓(xùn)練技術(shù)被廣泛應(yīng)用,將模型訓(xùn)練任務(wù)分配到多個(gè)計(jì)算單元或服務(wù)器上進(jìn)行并行計(jì)算。、分布式訓(xùn)練是一種將機(jī)器學(xué)習(xí)或深度學(xué)習(xí)模型訓(xùn)練任務(wù)分解成多個(gè)子任務(wù),并在多個(gè)計(jì)算設(shè)備上并行地進(jìn)行訓(xùn)練的方法。這種技術(shù)可以充分利用多臺(tái)計(jì)算機(jī)的...
注意:該技術(shù)已申請(qǐng)專利,請(qǐng)尊重研發(fā)人員的辛勤研發(fā)付出,在未取得專利權(quán)人授權(quán)前,僅供技術(shù)研究參考不得用于商業(yè)用途。
該專利適合技術(shù)人員進(jìn)行技術(shù)研發(fā)參考以及查看自身技術(shù)是否侵權(quán),增加技術(shù)思路,做技術(shù)知識(shí)儲(chǔ)備,不適合論文引用。
請(qǐng)注意,此類技術(shù)沒(méi)有源代碼,用于學(xué)習(xí)研究技術(shù)思路。