2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
本周,技術(shù)觀察人員在英特爾獲得了令人印象深刻的AI加速器工作,即Hot Chips 2019活動的啟示,其中英特爾展示了其Nervana神經(jīng)網(wǎng)絡(luò)處理器的細節(jié),(1)用于培訓的NNP-T和(2)NNP-I推斷。
讓我們首先重新審視推斷(Spring Hill)的工作,以及NNP-1,它是在以色列海法的工廠開發(fā)的。NNP-1代表用于推理的神經(jīng)網(wǎng)絡(luò)處理器。
路透社的Steven Scheer說,它的構(gòu)造將允許它“ 使用最少的能量來應(yīng)對高工作負荷 ”。
TNW的 Ravie Lakshmananin描述了它的功能,稱其“專門針對人工智能的推理方面推斷出新的見解。通過使用專用的AI推理計算引擎,NNP-I以更低的功率提供更高的性能。”
Nervana這個名字來自哪里?Nervana Systems是它在2016年收購的公司。當時,分析師Karl Freund告訴EE Times,英特爾這樣做很有意義。收購Nervana是進入深度學習市場的一種方式。
本周,為什么這個問題變成了原因 - 不是英特爾發(fā)言人。
“為了實現(xiàn)'AI無處不在'的未來情況,我們必須處理大量的數(shù)據(jù)生成,并確保組織具備了有效利用數(shù)據(jù)所需的資源,并在收集數(shù)據(jù)時對其進行處理,” 在路透社的一份報告中,Nervana的創(chuàng)始人,現(xiàn)任英特爾人工智能產(chǎn)品集團總經(jīng)理Naveen Rao 說。“這些計算機需要加速復雜的AI應(yīng)用程序。”
包括SiliconANGLE在內(nèi)的技術(shù)觀察人士表示,NNP-1適用于運行AI工作負載的大型數(shù)據(jù)中心。Fossbytes表示,一套全面的RAS功能可確保它可以輕松部署到現(xiàn)有數(shù)據(jù)中心。
喬爾Hruska的在ExtremeTech來:“英特爾聲稱NNP,我可以提供的每3600個推論ResNet50性能第二在10W TDP運行時工程以4.8 TOPS /瓦,符合英特爾的整體效率目標(該公司聲稱,NNP-。我在低瓦數(shù)時效率最高。)“
2019年Hot Chips會議的另一個感興趣的項目是NNP-T,它代表英特爾Nervana神經(jīng)網(wǎng)絡(luò)訓練處理器。英特爾將NNP-T(代號為Spring Crest)描述為專用(1),以大規(guī)模訓練復雜的深度學習模型,(2)通過開箱即用的橫向擴展支持簡化分布式培訓。
湯姆硬件公司的 Paul Alcorn 寫道,“NNP-T的設(shè)計是如何從機箱到機箱無縫擴展,甚至機架到機架,無需交換機。” 他說,網(wǎng)絡(luò)是專為高帶寬和低延遲而設(shè)計的; 反過來,該架構(gòu)將處理“大規(guī)模模型,可擴展到5或80億個或更多參數(shù)。”
Naveen Rao評論道:“英特爾Nervana NNP-T推動了深度學習培訓的界限。它旨在優(yōu)先考慮兩個關(guān)鍵的現(xiàn)實考慮:如何盡快培訓網(wǎng)絡(luò)以及如何在給定的功率預算內(nèi)完成。” 該體系結(jié)構(gòu)是從頭開始構(gòu)建的,沒有遺留的工作負載可供支持。
從更大的角度來看,“以色列時報”稱“英特爾,Nvidia,高通,谷歌等公司以及全球各地的創(chuàng)業(yè)公司都在尋找這一領(lǐng)域的新技術(shù),其中包括創(chuàng)造硬件以實現(xiàn)巨大的處理能力。信息量。“
Shoshanna Solomon寫道:處理硬件有兩個目的:(1)訓練計算機完成新任務(wù);(2)教他們推斷并從而獲得見解。
總而言之,英特爾正在努力使數(shù)據(jù)科學家能夠在處理非結(jié)構(gòu)化和復雜數(shù)據(jù)時做到這兩點。
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。