您的位置: 首頁 >科技 >

谷歌希望確保人工智能的進(jìn)步不會(huì)讓任何人掉隊(duì)

2019-05-23 15:26:48 編輯: 來源:
導(dǎo)讀 對(duì)于人工智能承諾的每一個(gè)令人興奮的機(jī)會(huì),其潛在的缺點(diǎn)是其暗淡的鏡像。我們希望人工智能能夠讓我們做出更明智的決策,但如果它最終會(huì)加劇

對(duì)于人工智能承諾的每一個(gè)令人興奮的機(jī)會(huì),其潛在的缺點(diǎn)是其暗淡的鏡像。我們希望人工智能能夠讓我們做出更明智的決策,但如果它最終會(huì)加劇社會(huì)的偏見呢?我們夢(mèng)想技術(shù)可以讓我們從工作中解脫出來,但是如果只有富人的利益,而窮人被剝奪了呢?

像這樣的問題讓人工智能研究人員在晚上工作起來,這也是谷歌今天推出人工智能倡議以解決其中一些問題的原因。新項(xiàng)目名為PAIR(它代表“People + AI Research”),其目的是“研究和重新設(shè)計(jì)人們與AI系統(tǒng)交互的方式”,并嘗試確保該技術(shù)“使每個(gè)人受益并賦予權(quán)力”。

這是一個(gè)廣泛的職權(quán)范圍,也是一個(gè)雄心勃勃的職權(quán)范圍。谷歌表示,PAIR將研究影響人工智能供應(yīng)鏈中每個(gè)人的許多不同問題 - 從編碼算法的研究人員到使用專業(yè)人工智能工具(或很快將)使用專業(yè)人工智能工具的醫(yī)生和農(nóng)民等專業(yè)人士。這家科技巨頭表示,它希望人工智能用戶友好,這意味著不僅要讓技術(shù)易于理解(讓人工智能解釋自己是一個(gè)已知且具有挑戰(zhàn)性的問題),而且還要確保它能夠平等地對(duì)待用戶。

人們一次又一次地注意到,社會(huì)的偏見和不平等往往在人工智能中變得難以編碼。這可能意味著面部識(shí)別軟件無法識(shí)別黑皮膚的用戶,或者語言處理程序認(rèn)為醫(yī)生總是男性,護(hù)士總是女性。

通常這種問題是由人工智能訓(xùn)練的數(shù)據(jù)引起的。它所具有的信息不完整,或者它以某種方式受到偏見。這就是為什么PAIR的第一個(gè)真正新聞是宣布兩個(gè)新的開源工具 - 名為Facets Overview和Facets Dive--這使得程序員更容易檢查數(shù)據(jù)集。

在上面的屏幕截圖中,F(xiàn)acets Dive用于測(cè)試面部識(shí)別系統(tǒng)。該計(jì)劃按照原產(chǎn)國對(duì)測(cè)試人員進(jìn)行排序,并將錯(cuò)誤與成功識(shí)別進(jìn)行比較。這允許編碼人員快速查看他們的數(shù)據(jù)集不足之處,并進(jìn)行相關(guān)調(diào)整。

目前,PAIR有12名全職員工??紤]到問題的嚴(yán)重程度,這是一個(gè)小小的數(shù)字,但谷歌表示,PAIR實(shí)際上是一項(xiàng)全公司計(jì)劃 - 將從該公司的各個(gè)部門吸取專業(yè)知識(shí)。

像Facets這樣的更多開源工具將在未來發(fā)布,谷歌也將設(shè)立新的資助和駐留,以贊助相關(guān)的研究。它并不是唯一認(rèn)真對(duì)待這些問題的大型組織(參見:人工智能基金的倫理與治理以及Elon Musk資助的OpenAI),但很高興看到Google加入爭取更公平未來的斗爭。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號(hào):閩ICP備19027007號(hào)-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。