用更好的人工智能建設(shè)更美好的社會(huì)
人工智能 (AI) 具有巨大的潛力,可以通過(guò)創(chuàng)新來(lái)改善社會(huì)的方方面面,從傳統(tǒng)工程系統(tǒng)到醫(yī)療保健,再到藝術(shù)和娛樂(lè)領(lǐng)域的創(chuàng)意過(guò)程。例如,在好萊塢,制片廠正在使用人工智能來(lái)揭示和衡量劇本中的偏見(jiàn)——制片人和編劇需要這些工具來(lái)創(chuàng)造更公平和更具包容性的媒體。
然而,人工智能的智能程度取決于它所訓(xùn)練的數(shù)據(jù),而這些數(shù)據(jù)反映了現(xiàn)實(shí)生活中的偏見(jiàn)。為了避免長(zhǎng)期存在刻板印象和排他性,技術(shù)人員正在解決現(xiàn)實(shí)生活和創(chuàng)新中的公平和包容問(wèn)題。
人類天生的偏見(jiàn)
由于技術(shù)人員希望使用 AI 來(lái)尋找以人為中心的解決方案來(lái)優(yōu)化行業(yè)實(shí)踐和日常生活,因此,注意我們與生俱來(lái)的偏見(jiàn)可能會(huì)產(chǎn)生意想不到的后果至關(guān)重要。
“作為人類,我們有很大的偏見(jiàn),”德勤人工智能研究所全球負(fù)責(zé)人、德勤技術(shù)和人工智能倫理負(fù)責(zé)人 Ammanath說(shuō)?!半S著這些偏見(jiàn)融入系統(tǒng),社會(huì)各部分很可能被拋在后面——代表性不足的少數(shù)族裔,無(wú)法使用某些工具的人——這可能會(huì)導(dǎo)致世界上更多的不平等?!?nbsp;
如果系統(tǒng)是用有偏見(jiàn)的數(shù)據(jù)訓(xùn)練出來(lái)的,或者研究人員沒(méi)有考慮到他們自己的觀點(diǎn)如何影響研究方向,那么出發(fā)點(diǎn)是好的項(xiàng)目——?jiǎng)?chuàng)造平等的結(jié)果或減輕過(guò)去的不平等——最終仍可能產(chǎn)生偏見(jiàn)。
Ammanath表示,到目前為止,對(duì) AI 偏見(jiàn)的調(diào)整通常是對(duì)發(fā)現(xiàn)有偏見(jiàn)的算法或事后出現(xiàn)的代表性不足的人口統(tǒng)計(jì)數(shù)據(jù)做出的反應(yīng)。但是,企業(yè)現(xiàn)在必須學(xué)習(xí)如何積極主動(dòng),盡早緩解這些問(wèn)題,并為他們的人工智能工作中的失誤承擔(dān)責(zé)任。
人工智能中的算法偏差
在人工智能中,偏見(jiàn)以算法偏見(jiàn)的形式出現(xiàn)。“算法偏差是構(gòu)建 AI 模型的一系列挑戰(zhàn),”惠普實(shí)驗(yàn)室首席架構(gòu)師兼惠普企業(yè) (HPE) 副總裁 Kirk Bresniker 解釋說(shuō)?!拔覀兛赡軙?huì)遇到挑戰(zhàn),因?yàn)槲覀兊乃惴o(wú)法處理不同的輸入,或者因?yàn)槲覀儧](méi)有收集到足夠廣泛的數(shù)據(jù)集來(lái)整合到我們的模型訓(xùn)練中。無(wú)論哪種情況,我們都沒(méi)有足夠的數(shù)據(jù)?!?/p>
算法偏差也可能來(lái)自不準(zhǔn)確的處理、數(shù)據(jù)被修改或有人注入錯(cuò)誤信號(hào)。無(wú)論有意與否,這種偏見(jiàn)都會(huì)導(dǎo)致不公平的結(jié)果,可能會(huì)賦予一個(gè)群體特權(quán)或完全排除另一個(gè)群體。
例如,Ammanath 描述了一種算法,旨在識(shí)別不同類型的鞋子,例如人字拖、涼鞋、正裝鞋和運(yùn)動(dòng)鞋。然而,當(dāng)它發(fā)布時(shí),該算法無(wú)法識(shí)別帶高跟鞋的女鞋。開(kāi)發(fā)團(tuán)隊(duì)是一群剛畢業(yè)的大學(xué)畢業(yè)生——都是男性——他們從沒(méi)想過(guò)用女鞋訓(xùn)練它。
“這是一個(gè)微不足道的例子,但你意識(shí)到數(shù)據(jù)集是有限的,”Ammanath 說(shuō)?!艾F(xiàn)在考慮使用歷史數(shù)據(jù)來(lái)診斷疾病或疾病的類似算法。如果它沒(méi)有針對(duì)某些體型、某些性別或某些種族進(jìn)行訓(xùn)練怎么辦?這些影響是巨大的。”
“至關(guān)重要的是,她說(shuō),如果你沒(méi)有那種多樣性,你就會(huì)錯(cuò)過(guò)某些場(chǎng)景?!?nbsp;
更好的人工智能意味著自我監(jiān)管和道德準(zhǔn)則
簡(jiǎn)單地獲取更多(和更多樣化)的數(shù)據(jù)集是一項(xiàng)艱巨的挑戰(zhàn),尤其是在數(shù)據(jù)變得更加集中的情況下。數(shù)據(jù)共享帶來(lái)了許多問(wèn)題,其中最重要的是安全和隱私。
科羅拉多大學(xué)博爾德分校媒體研究助理教授 Nathan Schneider 表示:“目前,我們面臨的情況是,個(gè)人用戶的權(quán)力遠(yuǎn)低于收集和處理其數(shù)據(jù)的大型公司?!?/p>
擴(kuò)展的法律和法規(guī)很可能最終會(huì)規(guī)定何時(shí)以及如何共享和使用數(shù)據(jù)。但是,創(chuàng)新不會(huì)等待立法者。目前,人工智能開(kāi)發(fā)組織有責(zé)任成為優(yōu)秀的數(shù)據(jù)管家,保護(hù)個(gè)人隱私,同時(shí)努力減少算法偏差。德勤的 Ammanath 表示,由于技術(shù)成熟得如此之快,不可能依靠法規(guī)來(lái)涵蓋所有可能的情況?!拔覀儗⑦M(jìn)入一個(gè)在遵守現(xiàn)有法規(guī)和自我監(jiān)管之間取得平衡的時(shí)代?!?/p>
這種自我監(jiān)管意味著提高構(gòu)建人工智能解決方案的整個(gè)技術(shù)供應(yīng)鏈的標(biāo)準(zhǔn),從數(shù)據(jù)到培訓(xùn)再到使這些解決方案成為可能所需的基礎(chǔ)設(shè)施。此外,企業(yè)需要為跨部門(mén)的個(gè)人創(chuàng)造途徑,以提出對(duì)偏見(jiàn)的擔(dān)憂。雖然不可能完全消除偏見(jiàn),但企業(yè)必須定期審核其人工智能解決方案的有效性。
由于人工智能的高度情景語(yǔ)境性質(zhì),每家企業(yè)的自我監(jiān)管看起來(lái)都不同。例如,HPE 制定了道德 AI 準(zhǔn)則。來(lái)自整個(gè)公司的各種不同的人花了將近一年的時(shí)間共同制定公司的人工智能原則,然后與廣泛的員工一起審查這些原則,以確保它們可以被遵循并且它們對(duì)企業(yè)文化有意義。
HPE 的 Bresniker 說(shuō):“我們希望提高對(duì)這些問(wèn)題的一般理解,然后收集最佳實(shí)踐。這是每個(gè)人的工作——在這個(gè)領(lǐng)域有足夠的認(rèn)知?!?nbsp;
人工智能技術(shù)已經(jīng)成熟,從研究發(fā)展到實(shí)際應(yīng)用和價(jià)值創(chuàng)造,遍及所有行業(yè)。人工智能在社會(huì)上的日益普及意味著企業(yè)現(xiàn)在有道德責(zé)任提供強(qiáng)大的、包容的和可訪問(wèn)的解決方案。這種責(zé)任促使組織(有時(shí)是第一次)檢查他們拉入流程的數(shù)據(jù)。 Bresniker說(shuō):“我們希望人們能建立起這種遠(yuǎn)見(jiàn),對(duì)輸入的數(shù)據(jù)有可衡量的信心。”“他們有能力阻止持續(xù)的系統(tǒng)性不平等,為更美好的未來(lái)創(chuàng)造公平的結(jié)果?!?/p>
(作者:MIT Technology Revie)