2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
數(shù)據(jù)科學(xué)是艱苦的工作,而不是魔咒。一個(gè)AI模型的性能是否如所宣傳的取決于其訓(xùn)練的程度,并且沒有“一刀切”的方法來(lái)訓(xùn)練AI模型。
分布式AI培訓(xùn)的必要弊端
縮放是訓(xùn)練AI模型時(shí)最棘手的考慮之一。當(dāng)模型變得過于資源匱乏而無(wú)法在任何單個(gè)計(jì)算平臺(tái)上進(jìn)行整體處理時(shí),培訓(xùn)就尤其具有挑戰(zhàn)性。模型可能已經(jīng)變得很大,超過了單個(gè)處理平臺(tái)的內(nèi)存限制,或者加速器需要開發(fā)特殊的算法或基礎(chǔ)結(jié)構(gòu)。訓(xùn)練數(shù)據(jù)集可能會(huì)變得如此龐大,以至于訓(xùn)練花費(fèi)了非常長(zhǎng)的時(shí)間,并且變得非常昂貴。
如果我們不要求模型特別擅長(zhǎng)于其分配的任務(wù),那么縮放就可以輕而易舉。但是,隨著我們提高推理準(zhǔn)確性的水平,培訓(xùn)過程可能會(huì)花費(fèi)更長(zhǎng)的時(shí)間并消耗更多的資源。解決此問題不僅僅是解決問題的能力更強(qiáng)的硬件。與許多應(yīng)用程序工作負(fù)載一樣,隨著AI模型復(fù)雜性的增加,不能僅依靠更快的處理器來(lái)維持線性擴(kuò)展。
可能需要進(jìn)行分布式培訓(xùn)。如果可以將模型的組件劃分并分發(fā)到優(yōu)化的節(jié)點(diǎn)以進(jìn)行并行處理,則可以大大減少訓(xùn)練模型所需的時(shí)間。但是,考慮到統(tǒng)計(jì)模型的構(gòu)造有多脆弱,并行化本身本身就是一件繁瑣的工作。
2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。