2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
哈佛大學(xué)工程與應(yīng)用科學(xué)學(xué)院(SEAS)和IBM研究院的研究人員在一個深度偽造和遠離人類自然語言AI的世界中問道:有沒有更好的方法來幫助人們檢測AI生成的文本?
這個問題引發(fā)了Sebastian Gehrmann博士學(xué)位。SEAS的候選人和IBM的研究員Hendrik Strobelt開發(fā)了一種統(tǒng)計方法,以及一個開放式訪問 交互式工具,用于檢測AI生成的文本。
自然語言生成器通過預(yù)測最常見的單詞來訓(xùn)練數(shù)以千萬計的在線文本并模仿人類語言。例如,單詞“have”,“am”和“was”靜態(tài)地最有可能出現(xiàn)在單詞“I”之后。
使用這個想法,Gehrmann和Strobelt開發(fā)了一種方法,它不是識別文本中的錯誤,而是識別過于可預(yù)測的文本。
“我們的想法是,隨著模型變得越來越好,它們肯定比人類更糟糕,可檢測到,與人類一樣好或更好,這可能很難用傳統(tǒng)方法檢測到,”格爾曼說。
“之前,你可以通過所有錯誤來判斷文本是機器生成的,”Strobelt說。“現(xiàn)在,它不再是錯誤,而是使用極有可能(并且有點無聊)的單詞來調(diào)出機器生成的文本。通過這個工具,人類和AI可以一起工作來檢測假文本。”
Gehrmann和Strobelt將于7月28日至8月2日在SEAS的計算機語言學(xué)會(ACL)會議上與SEAS計算機科學(xué)副學(xué)士Alexander Rush共同撰寫他們的研究成果。
Gehrmann和Strobelt的方法,稱為GLTR,基于一個模型,該模型使用來自網(wǎng)站的4500萬個文本 - 公共版本的OpenAI模型GPT-2。因為它使用GPT-2來檢測生成的文本,所以GLTR最適合GPT-2,但也可以很好地對抗其他模型。
以下是它的工作原理:
如果您將一段文本輸入到工具中,它會突出顯示綠色,黃色,紅色或紫色的文本,每種顏色都表示該單詞在其前面的單詞上下文中的可預(yù)測性。綠色意味著這個詞是非常可預(yù)測的,黃色,適度可預(yù)測,紅色不可預(yù)測,紫色意味著模型根本不會預(yù)測這個詞。
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。