2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ 備案號(hào):
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)
華為公司計(jì)劃在今年7月7日的華為云開發(fā)者大會(huì)上發(fā)布并內(nèi)測一款名為“盤古Chat”的多模態(tài)千億級(jí)大模型產(chǎn)品,直接與ChatGPT進(jìn)行競爭。這一消息是鈦媒體App從華為內(nèi)部獨(dú)家獲得的。預(yù)計(jì)盤古Chat將主要面向To B/G政企端客戶,并有望成為國內(nèi)技術(shù)能力最強(qiáng)的ChatGPT產(chǎn)品之一。此舉使得華為成為繼阿里和百度之后又一家重要的科技巨頭加入國產(chǎn)大模型競賽,同時(shí)也將為華為的生態(tài)產(chǎn)業(yè)鏈企業(yè)帶來利益。
據(jù)了解,華為內(nèi)部團(tuán)隊(duì)在盤古大模型的設(shè)計(jì)中確立了三個(gè)關(guān)鍵的核心原則:模型要大、網(wǎng)絡(luò)結(jié)構(gòu)要強(qiáng)、具有優(yōu)秀的泛化能力。盤古大模型于2020年11月在華為云內(nèi)部啟動(dòng),2021年4月對(duì)外發(fā)布,成為首個(gè)干億參數(shù)的中文預(yù)訓(xùn)練大模型。在2022年4月,華為升級(jí)了盤古到2.0版本,并發(fā)布了層次化開發(fā)方案,致力于打造工業(yè)級(jí)的盤古大模型。
盤古大模型的基礎(chǔ)層包括NLP大模型、CV大模型和科學(xué)計(jì)算大模型,而上層則是與合作伙伴開發(fā)的華為行業(yè)大模型。該模型可應(yīng)用于智能客服、機(jī)器翻譯、語音識(shí)別等多個(gè)領(lǐng)域,提供AI技術(shù)支持。華為在垂直產(chǎn)業(yè)領(lǐng)域已經(jīng)開始將盤古大模型落地應(yīng)用,例如在礦山領(lǐng)域建立了基于大模型的人工智能訓(xùn)練中心,取得了顯著的成本降低和效率提升。
華為在大模型訓(xùn)練方面具備優(yōu)勢,擁有完整的產(chǎn)業(yè)鏈和強(qiáng)大的算力調(diào)配能力。據(jù)報(bào)道,華為團(tuán)隊(duì)在訓(xùn)練千億參數(shù)的盤古大模型時(shí)使用了超過2000塊昇騰910芯片,并進(jìn)行了超過兩個(gè)月的數(shù)據(jù)訓(xùn)練。然而,盤古大模型的訓(xùn)練成本較高,盡管在中文語言處理方面具有高準(zhǔn)確度和質(zhì)量,但在語義理解方面仍存在一定的局限性,特別是在處理復(fù)雜的語言結(jié)構(gòu)和語義推理方面。此外,盤古Chat大模型也將面臨激烈的競爭壓力,需要不斷優(yōu)化和提高模型的性能和質(zhì)量,以保持市場中的領(lǐng)先地位。
2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ 備案號(hào):
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
郵箱:toplearningteam#gmail.com (請將#換成@)