2016-2022 All Rights Reserved.平安財經網.復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網 版權歸原作者所有。
隨著對聊天機器人和人工智能交互的自然語言處理需求的增長,越來越多的公司需要能夠提供它的系統(tǒng)。Nvidia表示其平臺可以處理它。Nvidia在對話自然語言處理(NLP)培訓和推理方面擁有突破,可以在客戶和聊天機器人之間實現(xiàn)更復雜的交換,并立即做出響應。
Juniper Research的數(shù)據(jù)顯示,預計這種技術的需求將增長,因為預計未來四年內僅數(shù)字語音助理將從25億增加到80億,而Gartner預測,到2021年,所有客戶服務互動的比例將達到15%。 AI將完全處理,比2017年增加400%。該公司表示其DGX-2 AI平臺在不到一個小時的時間內培訓了BERT-Large AI語言模型,并在2+毫秒內完成了AI推理,使得開發(fā)人員可以使用最先進的語言理解 - 規(guī)模應用。“
變形金剛的BERT或雙向編碼器表示是一種基于Google的AI語言模型,許多開發(fā)人員認為在一些性能評估中,它比人類具有更高的準確性。這一切都在這里討論。
Nvidia設置自然語言處理記錄
總而言之,Nvidia聲稱擁有三張NLP記錄:
1.培訓:運行最大版本的BERT語言模型,Nvidia DGX SuperPOD配備92個運行1,472 V100 GPU的Nvidia DGX-2H系統(tǒng),可將培訓時間從幾天縮短到53分鐘。單個DGX-2系統(tǒng)的大小與塔式PC相當,在2.8天內訓練了BERT-Large。
應用深度學習研究副總裁Bryan Catanzaro在一份聲明中說:“我們可以越快地訓練模型,我們可以訓練的模型越多,我們對問題的了解就越多,結果就越好。”
2.推論:在其TensorRT深度學習推理平臺上使用Nvidia T4 GPU,Nvidia在2.2毫秒內對BERT-Base SQuAD數(shù)據(jù)集進行了推斷,遠低于許多實時應用的10毫秒處理閾值,遠遠領先于40使用高度優(yōu)化的CPU代碼測量的毫秒數(shù)。
3.型號:Nvidia表示其新的定制模型,稱為Megatron,擁有83億個參數(shù),比BERT-Large大24倍,是世界上最大的基于變形金剛的語言模型,變形金剛是用于BERT和其他自然語言AI的構建模塊楷模。
為了讓FOSS的擁護者感到高興,Nvidia也通過GitHub提供了大量的源代碼。
使用PyTorch的NVIDIA GitHub BERT培訓代碼
TensorFlow的NGC模型腳本和檢查點
TensorRT在GitHub上優(yōu)化了BERT樣本
更快的Transformer:C ++ API,TensorRT插件和TensorFlow OP
MXNet Gluon-NLP,支持AMP的BERT(培訓和推理)
AI Hub上的TensorRT優(yōu)化BERT Jupyter筆記本
Megatron-LM:用于訓練大型變壓器模型的PyTorch代碼
并不是說這很容易消耗掉。我們正在談論非常先進的AI代碼。很少有人能夠做出正面或反面。但這種姿態(tài)是積極的。
2016-2022 All Rights Reserved.平安財經網.復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網 版權歸原作者所有。