您的位置: 首頁 >綜合快訊 >

Meta推出LLaMA參加AI大戰(zhàn):比GPT-3小10倍表現(xiàn)更好(LLaMA表現(xiàn)非常優(yōu)異)

2023-02-25 20:32:41 編輯:浦鈞霄 來源:
導(dǎo)讀 在2月25日美國的Facebook德牧公司m1ta推出了全新的,有人工智能支持的大型語言模型LLaMA-13B,根據(jù)看公司的介紹LLaMA-13B比目前的oled的模型小了將近10倍,但是在性能上要遠(yuǎn)遠(yuǎn)超過LLaMA-13B,根據(jù)meta公司的介紹只是說開發(fā)的LLaMA-13B是公司的新模型,被稱之為大型語言模型,及模型的集合參數(shù)已經(jīng)從之前的70億增長到了650億個,在這一數(shù)據(jù)相比下opn AI的GPT-3模型,就有1751個參數(shù),將使得該應(yīng)用可以在智能手機(jī)設(shè)備上進(jìn)行本地運(yùn)營,成為一種新的語言助手。

在2月25日美國的Facebook德牧公司m1ta推出了全新的,有人工智能支持的大型語言模型LLaMA-13B,根據(jù)看公司的介紹LLaMA-13B比目前的oled的模型小了將近10倍,但是在性能上要遠(yuǎn)遠(yuǎn)超過LLaMA-13B,根據(jù)meta公司的介紹只是說開發(fā)的LLaMA-13B是公司的新模型,被稱之為大型語言模型,及模型的集合參數(shù)已經(jīng)從之前的70億增長到了650億個,在這一數(shù)據(jù)相比下opn AI的GPT-3模型,就有1751個參數(shù),將使得該應(yīng)用可以在智能手機(jī)設(shè)備上進(jìn)行本地運(yùn)營,成為一種新的語言助手。

LLaMA-13B發(fā)展態(tài)勢良好:

 Mita公司將會用最新的采集數(shù)據(jù)訓(xùn)練LLaMA-13B模型,在今后公司將會使該模型以及權(quán)重的訓(xùn)練數(shù)據(jù)開源,這對于整個AI智能行業(yè)來說是一個巨大的改變,從目前公布的資料來看,所有參加AI競賽的大型科技公司,對于目前自身的AI技術(shù)都處于高度保密階段,LLaMA目前只能采用公開可用的數(shù)據(jù)來進(jìn)行訓(xùn)練,對于模型可被開源并被重復(fù)使用,這將對于AI模型的依賴的條件進(jìn)一步增加。

 M 1ta公司將會用LLaMA作為基礎(chǔ)模型,進(jìn)行新的AI模型開發(fā),同時還希望LLaMA在新的自然語言研究以及潛在的用例中發(fā)揮更好的作用,對于問題的回答以及自然語言的理解和閱讀,理解都可能增加當(dāng)前語言模型的理解能力和局限性.

LLaMA-65B目前已經(jīng)有650一個參數(shù)可以和AI智能的競爭對手谷歌以及openai的產(chǎn)品進(jìn)行對決,目前公司所研發(fā)的LLaMA-13B在運(yùn)行時的表現(xiàn)已經(jīng)遠(yuǎn)遠(yuǎn)超過了GPT-3,在目前 AI領(lǐng)域,對于參數(shù)的數(shù)量多少一直是該領(lǐng)域發(fā)展的,一個比較大的問題,從目前的機(jī)器學(xué)習(xí)模型可以根據(jù)輸入數(shù)據(jù)來進(jìn)行預(yù)測和分類,一些比較大型的模型能夠處理一些更復(fù)雜的任務(wù),并且還可以產(chǎn)生連貫的輸出,效率也將大大提高。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ   備案號:

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。