您的位置: 首頁 >科技 >

這是AI的頂級研究人員認為人工智能將會實現的時候

2019-04-29 17:29:11 編輯: 來源:
導讀 人工智能學科的核心是有一天我們能夠建造一個像人類一樣聰明的機器。這種系統(tǒng)通常被稱為人工通用智能系統(tǒng),即AGI,它是將概念與更廣泛的研

人工智能學科的核心是有一天我們能夠建造一個像人類一樣聰明的機器。這種系統(tǒng)通常被稱為人工通用智能系統(tǒng),即AGI,它是將概念與更廣泛的研究領域區(qū)分開來的名稱。它還清楚地表明,真正的人工智能擁有廣泛且適應性強的智能。到目前為止,我們已經建立了無數系統(tǒng),這些系統(tǒng)在特定任務中都是超人,但在一般腦力方面,沒有一個能夠與老鼠相匹敵。

但是,盡管這個想法在人工智能領域具有中心地位,但研究人員對于何時可以實現這一壯舉幾乎沒有一致意見。

在本周出版的一本名為“智力建筑師”的新書中,作家和未來學家馬丁·福特采訪了今天在AI工作的23位最杰出的男性和女性,其中包括DeepMind首席執(zhí)行官Demis Hassabis,Google AI首席Jeff Dean和斯坦福AI導演Fei - 李飛 在一項非正式調查中,福特要求他們每個人猜測哪一年將至少有50%的機會建立AGI。

福特采訪的23人中,只有18人回答,其中只有兩人記錄在案。有趣的是,這兩個人提供了最極端的答案:谷歌的未來學家兼工程總監(jiān)Ray Kurzweil建議,到2029年,AGI將有50%的可能性建成,Rodney Brooks,機器人和聯合創(chuàng)始人iRobot,去了2200.其余猜測分散在這兩個極端之間,平均估計是從現在開始的2099 - 81年。

換句話說:AGI是一個舒適的距離,雖然你可能活著看到它發(fā)生。

AGI意味著具有廣泛智能的AI,但我們缺少很多關鍵組件來實現它。 攝影:Matt Winkelmeyer / Getty Images為WIRED25拍攝

這與人工智能研究人員關于這一主題的第一次調查相差甚遠,但它提供了一個罕見的精英觀點快照,目前正在重塑世界。福特說,他對The Verge說,特別有趣的是,他所收集的估計偏向更長的時間框架,而不是早期的調查,這些調查往往接近 30年。

福特說:“我認為你的態(tài)度和你的年輕程度之間可能存在著大致的相關性,”他指出,他所談到的幾位研究人員都是70多歲,經歷過這個領域的起伏。“一旦你開展了數十年和數十年的研究,也許你的確會變得更加悲觀。”

福特說,他的采訪也揭示了專家意見中的一個有趣的分歧 - 不是關于什么時候可能建立AGI,而是使用現有方法是否甚至可能。

福特的一些研究人員說,我們擁有大多數基本工具,建立AGI只需要時間和精力。其他人說我們仍然缺少實現這一目標所需的大量基本突破。值得注意的是,福特說,研究人員的工作基于深度學習(人工智能的子領域,這推動了最近的繁榮),他們傾向于認為未來的進步將使用神經網絡,即當代人工智能的主力。具有人工智能其他部分背景的人認為,建立AGI需要其他方法,如符號邏輯。無論哪種方式,都存在相當多的禮貌分歧。

福特說:“深度學習營中的一些人非常貶低試圖在人工智能中直接設計常識。” “他們認為這是一個愚蠢的想法。其中一人說這就像是試圖將一些信息直接粘貼到大腦中。“

所有福特的受訪者都注意到了當前人工智能系統(tǒng)的局限性,并提到了他們尚未掌握的關鍵技能。這些包括轉移學習,其中一個領域的知識應用于另一個領域,以及無監(jiān)督學習,其中系統(tǒng)在沒有人類指導的情況下學習。(絕大多數機器學習方法目前都依賴于人類標記的數據,這是發(fā)展的嚴重瓶頸。)

受訪者還強調,在人工智能這樣的領域進行預測是絕對不可能的,因為人工智能領域的研究已進入適應期,并且關鍵技術在首次發(fā)現后幾十年才達到其全部潛力。

加州大學伯克利分校的教授斯圖爾特羅素寫了一篇關于人工智能的基礎教科書,他說創(chuàng)建AGI所需的那些突破“與更大的數據集或更快的機器無關”,所以他們不能很容易繪制出來。

“我總是講述核物理學中發(fā)生的事情的故事,”拉塞爾在接受采訪時說。“歐內斯特盧瑟福在1933年9月11日表達的共識觀點是,永遠不可能從原子中提取原子能。因此,他的預測是“永遠不會”,但事實證明是第二天早上Leo Szilard閱讀了盧瑟福的講話,對此感到厭煩,并發(fā)明了由中子介導的核鏈式反應!盧瑟福的預測是“從不”,事實是大約16個小時后。以類似的方式,對于我對AGI的這些突破何時到來進行定量預測感到非常徒勞。“

福特表示,這種基本的不可知性可能是他與之交談的人不愿意將他們的名字放在猜測旁邊的原因之一。“那些確實選擇較短時間框架的人可能會擔心被拘留,”他說。

許多研究人員表示,經濟問題比超級智能的威脅更為緊迫。 攝影:Bill Pugliano / Getty Images

關于AGI構成的危險的意見也不一。牛津大學哲學家,超級智能 (Elon Musk's的最愛)一書的作者尼克博斯特羅姆是一個有強烈言論可以說明潛在危險的人,他說人工智能比氣候變化對人類的存在更具威脅。他和其他人說,這個領域最大的問題之一就是價值調整 - 教導AGI系統(tǒng)具有與人類相同的價值(著名的“ 回形針問題 ”)。

“關注的不是[AGI]會因為奴役它而討厭或怨恨我們,或者突然出現意識的火花并且它會反叛,”博斯特羅姆說,“但是它會非常有力地追求一個不同的目標。從我們真正想要的。“

大多數受訪者表示,與經濟破壞和戰(zhàn)爭中使用先進自動化等問題相比,存在威脅問題極為遙遠。哈佛大學人工智能教授芭芭拉·格羅茲(Barbara Grosz)為語言處理領域做出了開創(chuàng)性貢獻,他表示,AGI道德問題主要是“分散注意力”。“真正的一點是,我們現在有許多道德問題,我們通過人工智能系統(tǒng)有,“格羅茲說。“我認為由于可怕的未來主義情景而分散注意力是不幸的。”

福特說,這種來回可能是智能建筑師最重要的一點:在像人工智能那樣復雜的領域里,確實沒有簡單的答案。即使是最精英的科學家也不同意世界面臨的基本問題和挑戰(zhàn)。

福特說:“人們沒有得到的主要外賣是多少分歧。” “整個領域都是如此難以預測。人們不同意它的移動速度,下一個突破將是什么,我們將多快到達AGI,或者最重要的風險是什么。

那么我們能堅持什么樣的真理呢?福特說,只有一個。無論AI接下來會發(fā)生什么,“這將是非常具有破壞性的。”


免責聲明:本文由用戶上傳,如有侵權請聯系刪除!

2016-2022 All Rights Reserved.平安財經網.復制必究 聯系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯網 版權歸原作者所有。