您的位置: 首頁 >互聯(lián)網(wǎng) >

谷歌引入了TensorFlow Privacy一個具有強大隱私保障的機器學(xué)習(xí)庫

2022-09-14 17:48:42 編輯:嚴(yán)民藍 來源:
導(dǎo)讀 谷歌今天宣布了TensorFlow Privacy,一個用于其TensorFlow機器學(xué)習(xí)框架的庫,旨在讓開發(fā)人員更容易地訓(xùn)練具有強大隱私保障的AI模型。谷歌...

谷歌今天宣布了TensorFlow Privacy,一個用于其TensorFlow機器學(xué)習(xí)框架的庫,旨在讓開發(fā)人員更容易地訓(xùn)練具有強大隱私保障的AI模型。谷歌說,它是開源的,不需要“隱私方面的專業(yè)知識”或基礎(chǔ)的數(shù)學(xué)知識。此外,使用標(biāo)準(zhǔn)TensorFlow機制的開發(fā)人員不應(yīng)該改變他們的模型架構(gòu)、培訓(xùn)過程或過程。

它緊跟著今天發(fā)布的TensorFlow 2.0 alpha。

谷歌在一篇媒體文章中寫道:“現(xiàn)代機器學(xué)習(xí)正越來越多地應(yīng)用于創(chuàng)造令人驚嘆的新技術(shù)和用戶體驗,其中許多涉及訓(xùn)練機器負(fù)責(zé)任地從個人照片或電子郵件等敏感數(shù)據(jù)中學(xué)習(xí)。”“我們打算將TensorFlow Privacy發(fā)展成為一個擁有強大隱私保障的訓(xùn)練機器學(xué)習(xí)模型的最佳技術(shù)中心。”

根據(jù)谷歌,TensorFlow Privacy是一種統(tǒng)計技術(shù),其目的是在平衡用戶信息的同時,將準(zhǔn)確性最大化。為了確保這一點,它使用一種改進的隨機梯度下降法(AI系統(tǒng)中優(yōu)化目標(biāo)函數(shù)的迭代方法)來優(yōu)化模型,這種方法對訓(xùn)練數(shù)據(jù)示例引起的多個更新進行平均,剪輯每個更新,并在最終平均值上添加噪聲。

谷歌說,TensorFlow的隱私保護可以防止對罕見細(xì)節(jié)的記憶,并保證無論用戶的數(shù)據(jù)是否用于訓(xùn)練,兩種機器學(xué)習(xí)模型都是不可分辨的。

谷歌寫道:“理想情況下,經(jīng)過訓(xùn)練的機器學(xué)習(xí)模型的參數(shù)應(yīng)該編碼一般模式,而不是具體訓(xùn)練實例的事實。”“特別是對于深度學(xué)習(xí),額外的保證可以有效地加強其他隱私技術(shù)提供的保護。”

TensorFlow Privacy是在英特爾(Intel)的HE-Transformer公開源代碼亮相之后推出的。HE-Transformer是一種“保護隱私”的工具,允許人工智能系統(tǒng)對敏感數(shù)據(jù)進行操作。它是nGraph的后端,Intel的神經(jīng)網(wǎng)絡(luò)編譯器,基于Microsoft Research的簡單加密算術(shù)庫(SEAL)。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。