您的位置: 首頁 >互聯(lián)網(wǎng) >

微軟推出了一款名為WhiteNoise的人工智能隱私工具

2022-09-13 05:08:02 編輯:聶育奇 來源:
導(dǎo)讀 在本周舉行的Build 2020開發(fā)者大會(Build 2020 developer conference)上,微軟宣布向Azure機(jī)器學(xué)習(xí)(Azure Machine Learning)添加新功...

在本周舉行的Build 2020開發(fā)者大會(Build 2020 developer conference)上,微軟宣布向Azure機(jī)器學(xué)習(xí)(Azure Machine Learning)添加新功能。Azure機(jī)器學(xué)習(xí)是一種基于云的環(huán)境,用于培訓(xùn)、部署和管理人工智能模型。WhiteNoise是一個針對不同隱私的工具包,現(xiàn)在既可以在Azure上使用,也可以在GitHub的開源平臺上使用,加入了新的人工智能解釋和公平工具,以及新的數(shù)據(jù)、模型和實驗訪問控制;用于細(xì)粒度追溯和沿襲的新技術(shù);新的機(jī)密機(jī)器學(xué)習(xí)產(chǎn)品;和新的工作流程責(zé)任文檔。

這一努力是微軟朝著更易于解釋、更安全、更“公平”的人工智能系統(tǒng)努力的一部分。研究表明,面部識別系統(tǒng)存在普遍的偏見,例如,人工智能存在隱私問題,因為許多模型無法使用加密數(shù)據(jù)。除了今天發(fā)布的Azure機(jī)器學(xué)習(xí)特性之外,微軟還嘗試著解決這些問題和其他挑戰(zhàn),包括人工智能偏見檢測工具、減少偏見錯誤的內(nèi)部努力、人工智能道德檢查列表,以及一個就人工智能追求提供建議的委員會(Aether)。另外,微軟公司副總裁埃里克·博伊德表示,Xbox、必應(yīng)、Azure以及微軟365部門的團(tuán)隊都參與了今天上午發(fā)布的一些工具包的開發(fā),并親自使用了這些工具包。

“企業(yè)現(xiàn)在正在研究如何開發(fā)易于解釋和遵守規(guī)定(例如非歧視和隱私規(guī)定)的人工智能應(yīng)用程序。”博伊德在接受VentureBeat電話采訪時表示:“他們需要與這些人工智能模型相結(jié)合的工具,以便更容易地解釋、理解、保護(hù)和控制數(shù)據(jù)和模型。”“我們認(rèn)為,我們的人工智能方法是有區(qū)別的,它建立在深入研究的堅實基礎(chǔ)上,采用經(jīng)過深思熟慮的方法,并致力于開源。”

WhiteNoise工具包是與哈佛大學(xué)定量社會科學(xué)和工程學(xué)院(Harvard Institute for Quantitative Social Science and School of Engineering)的研究人員合作開發(fā)的,它利用了不同的隱私,使人們能夠在保護(hù)個人信息(如姓名或出生日期)的同時,從數(shù)據(jù)中獲得見解。通常,差異隱私需要在將原始數(shù)據(jù)輸入本地機(jī)器學(xué)習(xí)模型之前向其注入少量噪聲,從而使惡意行為者難以從經(jīng)過訓(xùn)練的模型中提取原始文件。如果一個觀察者看到一個算法的輸出,卻不知道它是否在計算中使用了某個特定個體的信息,那么這個算法就可以被認(rèn)為是差分私有的。

WhiteNoise提供一個可擴(kuò)展圖書館不同私人算法和釋放機(jī)制保護(hù)隱私的查詢和統(tǒng)計,以及api定義的分析和評估分析和驗證器計算總損失數(shù)據(jù)隱私。微軟說它可以使一群醫(yī)院合作建立一個更好的預(yù)測模型在癌癥治療的療效,例如,同時幫助堅持法律要求,保護(hù)醫(yī)院信息的隱私,確保沒有個別患者數(shù)據(jù)從模型中泄露出來。

另一個由微軟人工智能和工程研究倫理委員會(Aether)支持的工具包Fairlearn,將于6月與Azure機(jī)器學(xué)習(xí)集成,旨在評估人工智能系統(tǒng)的公平性,并減輕算法中出現(xiàn)的任何不公平問題。在儀表板中,F(xiàn)airlearn定義了人工智能系統(tǒng)是否對人做出不公平的行為,主要關(guān)注兩種危害:分配危害和服務(wù)質(zhì)量危害。當(dāng)人工智能系統(tǒng)擴(kuò)展或保留機(jī)會、資源或信息時,分配就會受到損害——例如,在招聘、學(xué)校錄取和貸款方面。服務(wù)質(zhì)量危害是指一個系統(tǒng)對一個人是否像對另一個人一樣有效,即使沒有機(jī)會、資源或信息被延長或保留。

Fairlearn遵循一種被稱為“群體公平”的方法,該方法旨在發(fā)現(xiàn)哪些群體的個體有遭受傷害的風(fēng)險。數(shù)據(jù)科學(xué)家指定工具包中的相關(guān)組(例如,性別、膚色和種族),它們是特定于應(yīng)用程序的;群體公平是通過一組約束來形式化的,它要求人工智能系統(tǒng)的某些方面(或多個方面)的行為在群體之間具有可比性。

根據(jù)微軟的說法,專業(yè)服務(wù)公司安永;Young使用Fairlearn來評估模型輸出在生物性別方面的公平性。該工具包顯示,男性和女性的積極貸款決策之間存在15.3%的差異。Young的建模團(tuán)隊隨后開發(fā)并培訓(xùn)了多個矯正模型,并可視化了公平性和模型準(zhǔn)確性之間的常見權(quán)衡。該團(tuán)隊最終得到了一個最終的模型,該模型優(yōu)化并保留了總體精度,但將男性和女性之間的差異降低到了0.43%。

在新工具包的列表中,最后一個是釋義ml,它去年在alpha中首次出現(xiàn),但是今天在Azure機(jī)器學(xué)習(xí)中也可以使用。expltml合并了許多機(jī)器學(xué)習(xí)解釋技術(shù),幫助通過可視化模型的行為和預(yù)測背后的推理來解釋。它可以推薦在任何給定用例中對模型最重要的參數(shù)(或變量),并且可以解釋為什么這些參數(shù)很重要。

博伊德說:“我們希望通過Azure機(jī)器學(xué)習(xí)向廣大客戶提供這一服務(wù),幫助他們理解和解釋他們的模型所發(fā)生的事情。””(這些工具包),我們認(rèn)為我們已經(jīng)給了開發(fā)人員大量的權(quán)力真正理解他們的模型,他們可以看到他們的可解釋性[和]公平,并開始理解其他參數(shù)不滿意做出預(yù)測或搖擺的模型以不同的方式。”


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。