毫無疑問,我們的世界已經(jīng)迅速地與數(shù)字技術(shù)交融。小到一次刷碼出行、一次訂單支付、你在云端敲下的一個字符,都在數(shù)字世界構(gòu)建了一個欣欣向榮的孿生體。但面對看不見的數(shù)據(jù)“黑盒子”,我們的安全感從何而來?
數(shù)據(jù)安全是數(shù)字技術(shù)的基石,但它的完善不是一蹴而就的,領(lǐng)先的云服務(wù)商等關(guān)鍵角色有責(zé)任將其作為價值觀去時時進益。其中,人工智能(AI)等熱門技術(shù)近年來在日常生活中的廣泛應(yīng)用開始引發(fā)大眾對于隱私的擔(dān)憂。因此,我們向大家介紹微軟負責(zé)任的AI標(biāo)準,這是一個指導(dǎo)構(gòu)建AI系統(tǒng)的框架,來讓我們以身作則,在開發(fā)更好、更可信的技術(shù)和產(chǎn)品中守住價值觀底線。
一直以來,微軟采用六項基本原則來更廣泛地指導(dǎo)AI工作,在此基礎(chǔ)之上我們針對例如人臉識別技術(shù)等獨特的風(fēng)險進行了進一步的更新。6月底微軟宣布停止銷售基于人臉圖像猜測情緒的技術(shù),并且不再提供不受限制訪問的人臉識別技術(shù)。我們發(fā)現(xiàn),對“情緒”的定義缺乏共識等種種原因,可能會使人們遭受刻板印象、歧視或者不公平的拒絕服務(wù)。
技術(shù)是為了更好地服務(wù)生活而非創(chuàng)造障礙。在最新版負責(zé)任的AI標(biāo)準中,我們希望與業(yè)界共同探討知識和經(jīng)驗,從AI開始,共同推動建立更好、更透明的數(shù)據(jù)隱私安全規(guī)范和實踐。
微軟負責(zé)任的AI
1
引導(dǎo)開發(fā),
讓AI更負責(zé)任
AI實際是人們在開發(fā)、部署過程中所作的眾多決策的產(chǎn)物,因此從目的設(shè)定到互動方式,在開發(fā)的各個環(huán)節(jié)我們都應(yīng)該對需要做的各種決策進行積極引導(dǎo),以確保最終結(jié)果更有益且更公平。AI系統(tǒng)在一開始確定設(shè)計時,就需要以人和目標(biāo)為中心,與此同時,微軟還制定了其應(yīng)該堅守的六大原則——公平、可靠和安全、隱私與保障、包容、透明、負責(zé)。
負責(zé)任AI標(biāo)準反映了微軟對于如何構(gòu)建能夠體現(xiàn)這些原則并贏得社會信任的AI系統(tǒng)的思考。這一標(biāo)準為我們團隊提供了具有針對性和可行性的指導(dǎo)意見,確保我們走在AI治理的最前沿。
標(biāo)準對AI團隊必須努力達成的各個具體目標(biāo)或成果進行了詳細說明。這些目標(biāo)將“負責(zé)”原則拆解為影響評估、數(shù)據(jù)管控、人工監(jiān)督等多個關(guān)鍵促成因素;每個目標(biāo)還包含一系列要求,這些要求是團隊必須采取的步驟,以確保整個系統(tǒng)生命周期內(nèi)AI都不偏離目標(biāo);標(biāo)準還將可用的工具和實踐與特定要求相匹配,以便團隊在執(zhí)行時有現(xiàn)成的資源可用。
微軟負責(zé)任AI標(biāo)準的核心構(gòu)成:
原則、目標(biāo)、要求、工具與實踐
業(yè)界很需要類似的實用型指南。如上文所述,日常生活中AI應(yīng)用越來越常見,但政策法規(guī)還未健全。雖然相關(guān)機構(gòu)正在加大AI領(lǐng)域的治理,但我們應(yīng)該肩負起責(zé)任并采取行動,確保AI系統(tǒng)在設(shè)計之初就“負責(zé)任”。
2
持續(xù)完善,
基于產(chǎn)品不斷學(xué)習(xí)
負責(zé)任AI標(biāo)準的第一版于2019年秋季在微軟內(nèi)部推出,這次推出的改進版由過去一年來我們抽調(diào)的研究人員、工程師、政策專家組成的多學(xué)科小組精心編制而成,涵蓋了微軟在負責(zé)任AI領(lǐng)域所作的努力、最新研究成果,以及從產(chǎn)品中獲得的重要經(jīng)驗等。
語音轉(zhuǎn)文字技術(shù)中的公平性問題
AI系統(tǒng)可能會加劇社會偏見和不平等現(xiàn)象,這是業(yè)界公認的由AI系統(tǒng)帶來的壞處之一。2020年3月,一項學(xué)術(shù)研究顯示,在整個技術(shù)領(lǐng)域內(nèi),對于一些黑人和非裔美國人群體而言,語音轉(zhuǎn)文字技術(shù)的出錯率幾乎是白人群體的兩倍。我們回顧并思考了這項研究結(jié)果,了解到我們在預(yù)發(fā)布測試中并未全面考慮來自不同地區(qū)、擁有不同背景的人群豐富多樣的語言。在這項研究發(fā)表后,我們聘請了一位社會語言專家來幫助我們更好地理解語言多樣性,并試圖擴大我們的數(shù)據(jù)收集工作,以縮小語音轉(zhuǎn)文字技術(shù)的性能差異。在這個過程中,我們發(fā)現(xiàn)我們需要努力解決一些極具挑戰(zhàn)性的問題——即如何以一種得體且尊重對方的方式從各群體中收集數(shù)據(jù)。我們還意識到讓專家盡早參與到技術(shù)開發(fā)流程中的重要性,包括幫助我們更好地了解可能導(dǎo)致系統(tǒng)性能差異的因素。
負責(zé)任AI標(biāo)準記錄了我們改善語音轉(zhuǎn)文字技術(shù)所遵循的模式。隨著我們繼續(xù)在全公司推廣該標(biāo)準,我們希望其中明確的公平性目標(biāo)和要求將有助于我們提前應(yīng)對有損公平性的潛在問題。
自定義神經(jīng)語音和人臉識別的合理使用監(jiān)管
Azure AI的自定義神經(jīng)語音是另一項創(chuàng)新型微軟語音技術(shù),可用于創(chuàng)建聽起來幾乎與原始音源相同的合成語音。AT&T公司在屢獲殊榮的Bugs Bunny店內(nèi)將這一技術(shù)付諸實踐,Progressive公司在線上與客戶進行互動時使用Flo語音。此外,許多其他客戶也在使用這項技術(shù)。這項技術(shù)在教育、無障礙服務(wù)、娛樂領(lǐng)域都具有較大潛力,但也很容易被用來模仿聲音對他人進行欺騙。
我們通過負責(zé)任的AI計劃對這項技術(shù)進行了審核,包括落實敏感用途審核流程,這促使我們采用分層控制框架:限制客戶對服務(wù)的訪問,確保通過透明度說明(Transparency Note)和行為準則(Code of Conduct)對可接受的用例主動進行定義和說明,并建立了技術(shù)圍欄,以幫助確保在創(chuàng)建合成語音時語音提供者能夠積極參與其中。通過上述和其他治理措施,防止技術(shù)被濫用,同時確保技術(shù)能夠發(fā)揮有益的作用。
基于我們在自定義神經(jīng)語音技術(shù)領(lǐng)域積累的知識和經(jīng)驗,我們將在自身的人臉識別服務(wù)中應(yīng)用類似管控措施。在現(xiàn)有客戶度過過渡期之后,我們僅會將這些服務(wù)的訪問權(quán)限授予托管客戶和合作伙伴,將用例范圍縮小到預(yù)定義的可接受用例,并合理利用服務(wù)中設(shè)計的技術(shù)管控措施。
符合目標(biāo)(Fit for Purpose)與Azure人臉識別功能
最后,我們意識到,要讓AI可信賴,它們應(yīng)該是符合目標(biāo)的解決方案。在確保Azure人臉識別服務(wù)符合負責(zé)任AI標(biāo)準相關(guān)要求的過程中,我們棄用了推斷情緒狀態(tài)和身份屬性(包括性別、年齡、微笑、胡須、頭發(fā)和妝容等)的功能。
以情緒狀態(tài)為例,我們已決定不支持通過開放式API訪問權(quán)限掃描人臉并根據(jù)面部表情或動作來推斷情緒狀態(tài)的人臉識別技術(shù)。公司內(nèi)外的專家強調(diào)對“情緒”的定義缺乏科學(xué)共識,相關(guān)挑戰(zhàn)包括:如何跨越不同用例、地區(qū)和人群實現(xiàn)準確推斷,以及人們越來越關(guān)注這類功能的隱私問題。我們還決定,我們需要仔細分析所有聲稱能夠推斷人們情緒狀態(tài)的AI系統(tǒng),無論這些系統(tǒng)是使用面部分析還是任何其他AI技術(shù)。當(dāng)前,負責(zé)任AI標(biāo)準中的“符合目標(biāo)(Fit for Purpose)”目標(biāo)與要求可幫助我們提前對特定系統(tǒng)進行有效性評估,我們與敏感用途相關(guān)的流程有助于我們基于科學(xué)為影響較大的用例提供細致入微的指導(dǎo)。
這些現(xiàn)實出現(xiàn)的挑戰(zhàn)促進了微軟負責(zé)任AI標(biāo)準的發(fā)展,也切實影響了我們設(shè)計、開發(fā)和部署AI的方式。
對于有意深入研究的人員,我們也提供了支撐負責(zé)任AI標(biāo)準的重要資源,包括我們的影響評估模板和指南,以及一系列透明度說明。微軟已經(jīng)驗證了影響評估的重要性,即影響評估可以確保團隊在最早期設(shè)計階段深入探索AI系統(tǒng)可能會帶來的影響,包括其利益相關(guān)者、預(yù)期益處和潛在危害等。透明度說明采用全新文檔形式,我們在其中向客戶披露了我們的核心構(gòu)建模塊技術(shù)的功能和限制因素,從而為他們提供制定負責(zé)任部署決策所需的知識。
微軟負責(zé)任AI標(biāo)準以核心原則為基礎(chǔ)
3
融會貫通多學(xué)科,
不斷更新迭代
我們最新版負責(zé)任AI標(biāo)準中采納了微軟不同技術(shù)、專業(yè)領(lǐng)域和地理位置的數(shù)百條意見。這是我們建立負責(zé)任AI實踐的重要一步,因為它更具可操作性和相關(guān)性:這套標(biāo)準給出了提前識別、衡量和減輕系統(tǒng)危害的實用方法,并要求團隊采取管控措施,從而防止技術(shù)被濫用,以及確保技術(shù)能夠發(fā)揮有益的作用。
雖然制定標(biāo)準是微軟負責(zé)任AI之旅的重要一步,但這只是其中一步。我們預(yù)計在實施過程中會遇到各種挑戰(zhàn),可能需要我們暫停下來不斷反思和調(diào)整。我們的標(biāo)準將作為一份動態(tài)文件,不斷加以完善以納入公司內(nèi)外的新研究、新技術(shù)、新法規(guī)以及新的知識與經(jīng)驗。
在全球范圍內(nèi),關(guān)于如何創(chuàng)建具有原則性和可操作性的規(guī)范以確保組織以負責(zé)任的方式開發(fā)和部署AI的討論層出不窮。我們從這些討論中受益匪淺,也將繼續(xù)為這些討論提供我們的見解。我們認為,產(chǎn)業(yè)界、學(xué)術(shù)界、社會和政府應(yīng)該攜手推動前沿技術(shù)的發(fā)展,并相互學(xué)習(xí)。我們需要共同解決開放性研究問題,彌合度異,并創(chuàng)建全新的實踐、模式、資源和工具。
創(chuàng)建更美好、更公平的未來需要新的AI技術(shù)“護城墻”。微軟通過制定負責(zé)任AI標(biāo)準助力實現(xiàn)這一目標(biāo),并在整個公司層面開展勢在必行的實踐工作。我們致力于在開展相關(guān)工作過程中保持公開、誠實和透明,以期取得富有意義的進展。