為什么人工智能設計必須優(yōu)先考慮數(shù)據(jù)隱私
人工智能是醫(yī)療保健、技術和其他領域發(fā)展不可或缺的一部分,但人們對如何監(jiān)管數(shù)據(jù)隱私感到擔憂。
數(shù)據(jù)隱私對于獲得公眾對技術進步的信任至關重要。
數(shù)據(jù)隱私通常與基于消費者數(shù)據(jù)的人工智能 (AI) 模型相關聯(lián)??梢岳斫獾氖牵脩魧Λ@取和使用其數(shù)據(jù)的自動化技術持謹慎態(tài)度,其中可能包括敏感信息。由于 AI 模型依賴于數(shù)據(jù)質(zhì)量來提供顯著的結果,因此它們的持續(xù)存在取決于隱私保護是其設計不可或缺的一部分。
良好的隱私和數(shù)據(jù)管理實踐不僅僅是消除客戶恐懼和擔憂的一種方式,與企業(yè)的核心組織價值觀、業(yè)務流程和安全管理有很大關系。隱私問題已被廣泛研究和宣傳,隱私感知調(diào)查數(shù)據(jù)表明,隱私保護是消費者關注的重要問題。
從上下文中解決這些問題至關重要,對于使用面向消費者的人工智能的公司來說,有幾種方法和技術可以幫助解決通常與人工智能相關的隱私問題。
有些產(chǎn)品和服務需要數(shù)據(jù),但它們不需要侵犯任何人的隱私
使用人工智能的企業(yè)在隱私方面已經(jīng)面臨公眾的質(zhì)疑。根據(jù)歐洲消費者組織 2020 年的一項調(diào)查顯示,45-60% 的歐洲人同意 AI 將導致更多的個人數(shù)據(jù)濫用。
有許多流行的在線服務和產(chǎn)品依賴于大型數(shù)據(jù)集來學習和改進他們的 AI 算法。即使是最不注重隱私的用戶,這些數(shù)據(jù)集中的一些數(shù)據(jù)也可能被認為是私有的。來自網(wǎng)絡、社交媒體頁面、手機和其他設備的數(shù)據(jù)流增加了企業(yè)用來訓練機器學習系統(tǒng)的信息量。由于一些企業(yè)過度使用個人數(shù)據(jù)和管理不善,隱私保護正在成為世界各地的公共政策問題。
我們收集的大部分敏感數(shù)據(jù)都是為了改進支持人工智能的流程。許多分析的數(shù)據(jù)也是由機器學習采用驅(qū)動的,因為復雜的算法需要根據(jù)這些數(shù)據(jù)集實時做出決策。搜索算法、語音助手和推薦引擎只是利用基于現(xiàn)實世界用戶數(shù)據(jù)的大型數(shù)據(jù)集的 AI 的少數(shù)解決方案。
海量數(shù)據(jù)庫可能包含廣泛的數(shù)據(jù),最緊迫的問題之一是這些數(shù)據(jù)可能是個人可識別和敏感的。實際上,教算法做出決策并不依賴于知道數(shù)據(jù)與誰相關。因此,此類產(chǎn)品背后的公司應專注于將其數(shù)據(jù)集私有化,幾乎沒有方法來識別源數(shù)據(jù)中的用戶,并制定措施從其算法中刪除邊緣情況以避免逆向工程和識別。
數(shù)據(jù)隱私和人工智能之間的關系非常微妙。雖然某些算法可能不可避免地需要私人數(shù)據(jù),但有一些方法可以以更安全和非侵入性的方式使用它。以下方法只是使用私有數(shù)據(jù)的公司如何成為解決方案的一部分的一些方法。
考慮隱私的人工智能設計
我們已經(jīng)討論了逆向工程的問題,其中不良行為者會發(fā)現(xiàn) AI 模型中的漏洞并從模型的輸出中識別潛在的關鍵信息。逆向工程是為什么在面臨這一挑戰(zhàn)的情況下更改和改進數(shù)據(jù)庫和學習數(shù)據(jù)對于 AI 使用至關重要。
例如,在機器學習過程(對抗性學習)中組合沖突的數(shù)據(jù)集是區(qū)分 AI 算法輸出中的缺陷和偏差的好選擇。也有使用不使用實際個人數(shù)據(jù)的合成數(shù)據(jù)集的選項,但它們的有效性仍然存在問題。
醫(yī)療保健是人工智能和數(shù)據(jù)隱私治理的先驅(qū),尤其是處理敏感的私人數(shù)據(jù)。它還在同意方面做了大量工作,無論是對于醫(yī)療程序還是處理他們的數(shù)據(jù)——風險很高,并且已得到法律強制執(zhí)行。
對于 AI 產(chǎn)品和算法的整體設計,通過匿名化和聚合的方式將數(shù)據(jù)與用戶解耦是任何使用用戶數(shù)據(jù)訓練其 AI 模型的企業(yè)的關鍵。
有很多考慮可以加強 AI 公司的隱私保護:
以隱私為核心:將隱私保護放在開發(fā)者的雷達上,并找到有效加強安全性的方法
匿名化和聚合數(shù)據(jù)集,刪除所有個人標識符和唯一數(shù)據(jù)點
嚴格控制公司中誰可以訪問特定數(shù)據(jù)集,并持續(xù)審核這些數(shù)據(jù)的訪問方式,因為這是過去一些數(shù)據(jù)泄露背后的原因
更多的數(shù)據(jù)并不總是最好的解決方案。使用最少的數(shù)據(jù)測試您的算法,以了解您需要收集和處理的最少數(shù)據(jù)量,從而使您的用例可行
必須提供一種簡化的方法來根據(jù)用戶的要求消除個人數(shù)據(jù)。只對用戶數(shù)據(jù)進行偽匿名化的公司應該使用最新的數(shù)據(jù)不斷地重新訓練他們的模型
利用強大的去標識化策略,例如,具有完全匿名化的聚合和合成數(shù)據(jù)集,用于算法訓練、審計和質(zhì)量保證等的不可逆標識符
通過重新思考從第三方獲取和使用關鍵信息的方式來保護用戶的自主權和隱私——仔細檢查數(shù)據(jù)源,只使用那些在用戶明確和知情同意的情況下收集數(shù)據(jù)的源
考慮風險:攻擊是否可能從您的 AI 系統(tǒng)輸出中危及用戶隱私?
數(shù)據(jù)隱私和人工智能的未來是什么?
人工智能系統(tǒng)需要大量數(shù)據(jù),如果沒有用于訓練人工智能算法的個人數(shù)據(jù),一些頂級的在線服務和產(chǎn)品就無法運行。然而,有很多方法可以改進數(shù)據(jù)的獲取、管理和使用,包括算法本身和整體數(shù)據(jù)管理。尊重隱私的人工智能需要尊重隱私的公司。
(來源:千家網(wǎng))