您的位置: 首頁(yè) >互聯(lián)網(wǎng) >

AI軍備競(jìng)賽Meta加入:發(fā)布號(hào)稱(chēng)優(yōu)于ChatGPT的開(kāi)源大語(yǔ)言模型

2023-02-27 18:35:10 編輯:包彬全 來(lái)源:
導(dǎo)讀 Meta官網(wǎng)于當(dāng)?shù)貢r(shí)間的2月24日,發(fā)布了一款新型的人工智能大型語(yǔ)言模型LlaMA,Meta首席AI科學(xué)家楊立昆表示,LLaMA 130億參數(shù)規(guī)模的模型性能在一些基準(zhǔn)測(cè)試中由于OpenAI推出的GPT3。

Meta官網(wǎng)于當(dāng)?shù)貢r(shí)間的2月24日,發(fā)布了一款新型的人工智能大型語(yǔ)言模型LlaMA,Meta首席AI科學(xué)家楊立昆表示,LLaMA 130億參數(shù)規(guī)模的模型性能在一些基準(zhǔn)測(cè)試中由于OpenAI推出的GPT3。

從參數(shù)規(guī)模上來(lái)分析,Meta所提供的有130億,360億,70頁(yè)和330頁(yè)這4種參數(shù)規(guī)模,使用的是20種語(yǔ)言進(jìn)行訓(xùn)練。據(jù)Meta的首席執(zhí)行官馬克扎克伯格稱(chēng)LlaMA發(fā)布這一模型的宗旨就是幫助研究人員不斷的推進(jìn)工作,再生成對(duì)話(huà)文本以及總結(jié)書(shū)面材料,預(yù)留蛋白質(zhì)結(jié)構(gòu),和證明數(shù)學(xué)定理等復(fù)雜的任務(wù)方面會(huì)有很大的前景。

LLaMA 130億參數(shù)規(guī)模的模型能夠在單個(gè)的CPU上運(yùn)行,650億參數(shù)的模型可以和谷歌5400億參數(shù)的PaLM模型,DeepMind 700億參數(shù)的Chinchilla模型進(jìn)行競(jìng)爭(zhēng)。與OpenAI的GPT和谷歌的LaMDA機(jī)密訓(xùn)練資料和演算所不同的在于LlaMA不僅性能更好,更小,而且是基于公開(kāi)資料進(jìn)行訓(xùn)練的。
 


免責(zé)聲明:本文由用戶(hù)上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ   備案號(hào):

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。