您的位置: 首頁 >科技 >

人工智能不會(huì)減輕Facebook人類主持人的痛苦

2019-04-25 16:58:37 編輯: 來源:
導(dǎo)讀 無論公司怎么說,AI都不會(huì)解決在線內(nèi)容審核的問題。這是我們之前多次聽到的承諾,特別是來自Facebook首席執(zhí)行官馬克扎克伯格,但專家表示,

無論公司怎么說,AI都不會(huì)解決在線內(nèi)容審核的問題。這是我們之前多次聽到的承諾,特別是來自Facebook首席執(zhí)行官馬克扎克伯格,但專家表示,這項(xiàng)技術(shù)并不存在 - 事實(shí)上,可能永遠(yuǎn)不會(huì)。

大多數(shù)社交網(wǎng)絡(luò)使用自動(dòng)過濾和人工版主的組合將不需要的內(nèi)容保留在其平臺(tái)之外。正如The Verge在最近的調(diào)查中所揭示的那樣,人類主持人經(jīng)常在壓力很大的情況下工作。員工每天必須點(diǎn)擊數(shù)百項(xiàng)標(biāo)記內(nèi)容 - 從謀殺到性虐待 - 然后決定是否違反平臺(tái)規(guī)則,通常是在嚴(yán)格控制的時(shí)間表上工作,沒有足夠的培訓(xùn)或支持。

當(dāng)他們展示他們的平臺(tái)正在創(chuàng)造的痛苦(以及其他適度相鄰的問題,如感知偏見)時(shí),公司常常說更多的技術(shù)就是解決方案。例如,去年在國會(huì)前的聽證會(huì)上,扎克伯格引用人工智能作為這個(gè)和其他問題的答案超過30次。

“AI是扎克伯格的麥高芬,”詹姆斯Grimmelmann,康奈爾大學(xué)科技法律教授告訴華盛頓郵報(bào) 的時(shí)間。“它不會(huì)解決Facebook的問題,但它將解決扎克伯格的問題:讓其他人承擔(dān)責(zé)任。”

那么AI現(xiàn)在正在為Facebook和其他平臺(tái)做些什么,為什么不能做更多呢?

人類文化自動(dòng)化的問題

現(xiàn)在,使用人工智能和機(jī)器學(xué)習(xí)的自動(dòng)化系統(tǒng)肯定在幫助適度方面做了很多工作。它們充當(dāng)分類系統(tǒng),例如,將可疑內(nèi)容推送給人類主持人,并且能夠自己清除一些不需要的東西。

但他們這樣做的方式相對(duì)簡(jiǎn)單。通過使用視覺識(shí)別來識(shí)別容易出錯(cuò)的廣泛類別的內(nèi)容(如“人類裸體”或“槍支”); 或者通過將內(nèi)容與被禁物品的索引相匹配,這需要人類首先創(chuàng)建所述索引。

后一種方法用于擺脫最明顯的侵權(quán)材料; 來自恐怖組織的宣傳視頻,虐待兒童材料和受版權(quán)保護(hù)的內(nèi)容。在每種情況下,內(nèi)容都由人類識(shí)別并“散列”,這意味著它變成了一個(gè)更快速處理的唯一數(shù)字串。該技術(shù)廣泛可靠,但仍可能導(dǎo)致問題。例如,YouTube的ContentID系統(tǒng)在過去曾將上傳內(nèi)容(如白噪聲和鳥鳴)標(biāo)記為侵犯版權(quán)。

當(dāng)內(nèi)容本身甚至不能被人類輕易分類時(shí),事情變得更加棘手。這可以包括算法肯定會(huì)識(shí)別的內(nèi)容,但是它具有許多含義(如裸露 - 母乳喂養(yǎng)計(jì)數(shù)?)或者是非常依賴于上下文的內(nèi)容,如騷擾,假新聞,錯(cuò)誤信息等。這些類別中沒有一個(gè)具有簡(jiǎn)單的定義,并且對(duì)于它們中的每一個(gè)都存在沒有客觀狀態(tài)的邊緣情況,例如某人的背景,個(gè)人精神或者他們?cè)谌魏翁囟ㄈ掌诘那榫w可能會(huì)使一個(gè)定義與另一個(gè)定義之間產(chǎn)生差異。

我們要求AI理解人類文化的復(fù)雜性

非營利組織數(shù)據(jù)與社會(huì)的聯(lián)盟研究員羅賓·卡普蘭說,試圖讓機(jī)器理解這類內(nèi)容的問題在于,它實(shí)質(zhì)上是要求他們理解人類文化 - 這種現(xiàn)象過于流暢和微妙,無法在簡(jiǎn)單的,機(jī)器可讀的規(guī)則。

“[這個(gè)內(nèi)容]往往涉及特定于演講者的背景,”卡普蘭告訴The Verge。“這意味著權(quán)力動(dòng)態(tài),種族關(guān)系,政治動(dòng)態(tài),經(jīng)濟(jì)動(dòng)力等。”由于這些平臺(tái)在全球范圍內(nèi)運(yùn)作,她說,還需要考慮不同的文化規(guī)范,以及不同的法律制度。

圣克拉拉大學(xué)法學(xué)教授埃里克戈德曼說,了解內(nèi)容是否難以分類的一種方法是詢問是否需要“外在信息” - 即圖像,視頻,音頻之外的信息或文字。

“例如,過濾器不善于發(fā)現(xiàn)有爭(zhēng)議事件的仇恨言論,模仿或新聞報(bào)道,因?yàn)檫@么多的決心取決于文化背景和其他外在信息,”高曼告訴The Verge。“同樣,過濾器并不擅長根據(jù)美國版權(quán)法確定內(nèi)容再版是否合理使用,因?yàn)樵摏Q定取決于外部信息,如市場(chǎng)動(dòng)態(tài),原始資料和上傳者的其他活動(dòng)。”

但人工智能作為一個(gè)領(lǐng)域正在迅速發(fā)展。那么未來的算法將來是否能夠可靠地對(duì)這類內(nèi)容進(jìn)行分類?高盛和卡普蘭持懷疑態(tài)度。

高曼說,人工智能將更好地理解背景,但人工智能很快就能比人類更好地做到這一點(diǎn)并不明顯。“在可預(yù)見的未來,人工智能不會(huì)取代人類審稿人,”他說。

Caplan同意并指出,只要人們爭(zhēng)論如何對(duì)這種材料進(jìn)行分類,機(jī)器有什么機(jī)會(huì)?“沒有簡(jiǎn)單的解決辦法,”她說。“我們將繼續(xù)看到問題。”

但值得注意的是,AI并非完全沒有希望。最近深度學(xué)習(xí)的進(jìn)步極大地提高了計(jì)算機(jī)對(duì)圖像,視頻和文本中的信息進(jìn)行分類的速度和能力。為NanoNets工作的Arun Gandhi表示,這不應(yīng)該打折扣,因?yàn)镹anoNets是一家向在線企業(yè)銷售AI審核工具的公司。

“很多焦點(diǎn)都集中在內(nèi)容主持人的工作創(chuàng)傷或令人不安,這絕對(duì)是公平的,”甘地告訴The Verge。“但這也消除了我們正在解決其中一些問題的事實(shí)。”

已經(jīng)取得了進(jìn)展,但目前尚不清楚它能走多遠(yuǎn)

Gandhi解釋說,機(jī)器學(xué)習(xí)系統(tǒng)需要大量的例子來了解違規(guī)內(nèi)容是什么樣的,這意味著隨著訓(xùn)練數(shù)據(jù)集變大,這些系統(tǒng)將在未來幾年內(nèi)得到改善。他指出,即使在幾年前,現(xiàn)有的一些系統(tǒng)看起來也不可能快速準(zhǔn)確。“我很自信,鑒于我們?cè)谶^去五年,六年中取得的進(jìn)步,在某種程度上我們將能夠完全自動(dòng)化適度,”甘地說。

然而,其他人則不同意,他們指出,人工智能系統(tǒng)不僅要掌握政治和文化背景(每月都在變化,而且國家與國家之間的變化),還要掌握諷刺和諷刺等基本的人類概念。可以通過簡(jiǎn)單的黑客攻擊AI系統(tǒng)的各種方式,并且完整的AI解決方案看起來不太可能。

牛津互聯(lián)網(wǎng)研究所的律師和研究員Sandra Wachter表示,為了滿足內(nèi)容的需要,還需要將人類保持在循環(huán)中的法律原因。

“在歐洲,我們有一個(gè)數(shù)據(jù)保護(hù)框架[GDPR],允許人們對(duì)算法做出的某些決策提出異議。它還說決策的透明度很重要[并且]你有權(quán)知道你的數(shù)據(jù)發(fā)生了什么,“Wachter告訴The Verge。但是算法無法解釋為什么他們做出某些決定,她說,這使得這些系統(tǒng)不透明,并可能導(dǎo)致科技公司被起訴。

Wachter說,有關(guān)GDPR的投訴已經(jīng)提出,并且可能會(huì)有更多案件。“當(dāng)有更高的權(quán)利,如隱私權(quán)和言論自由權(quán)時(shí),重要的是我們有某種追索權(quán),”她說。“當(dāng)你必須做出影響其他人自由的判斷時(shí),你必須在循環(huán)中擁有一個(gè)可以仔細(xì)檢查算法并解釋這些事情的人。”

正如Caplan所指出的那樣,科技公司可以做的事情 - 以其巨大的利潤率和對(duì)員工的關(guān)注責(zé)任 - 改善了人類主持人的工作條件。“至少我們需要有更好的勞工標(biāo)準(zhǔn),”她說。正如Casey Newton在他的報(bào)告中指出的那樣,雖然像Facebook這樣的公司確實(shí)做出了一些努力來適當(dāng)?shù)鬲?jiǎng)勵(lì)人類主持人,給予他們健康福利和高于平均水平的工資,但往往超過了對(duì)更好的準(zhǔn)確性和更多決策的不懈努力。

Caplan表示,解決內(nèi)容自動(dòng)化問題的技術(shù)公司面臨的壓力也可能導(dǎo)致這種狀況。“當(dāng)你遇到工人被迫遵守不可能的準(zhǔn)確標(biāo)準(zhǔn)的問題時(shí),”她說。需要盡快提出解決方案,這有助于硅谷經(jīng)常受到誹謗的“快速行動(dòng)并打破局面”的態(tài)度。雖然這可以成為推出應(yīng)用程序時(shí)思考的好方法,但對(duì)于管理全球演講微妙之處的公司而言,這是一種糟糕的心態(tài)。

“而我們現(xiàn)在說,也許我們應(yīng)該使用機(jī)器來解決這個(gè)問題,”卡普蘭說,“但這將導(dǎo)致一系列全新的問題。”

值得記住的是,這是一個(gè)新的獨(dú)特問題。從來沒有像Facebook和YouTube那樣擁有龐大且信息密集的平臺(tái)。這些地方世界上任何地方的任何人都可以隨時(shí)上傳和分享他們喜歡的任何內(nèi)容。管理這個(gè)龐大且不斷變化的半公共領(lǐng)域是“其他媒體系統(tǒng)無法面對(duì)的挑戰(zhàn),”卡普蘭說。

我們所知道的是現(xiàn)狀不起作用。負(fù)責(zé)清理互聯(lián)網(wǎng)混亂的人是痛苦的,創(chuàng)造這種混亂的人類并沒有好多少。人工智能沒有足夠的智慧來處理這個(gè)問題,而人類的智能也在不斷提出解決方案。有些東西必須給予。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號(hào):閩ICP備19027007號(hào)-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。