facebook公民敦促強制性算法偏差檢測

來源:創(chuàng)視網(wǎng)
作者:Facebook
時間:2020-07-15
2523
當談到Facebook在民權(quán)問題上的進展時,一項獨立評論發(fā)現(xiàn),該公司為檢測算法偏見而做出的努力非常危險,使用戶容易受到操縱。

當談到Facebook在民權(quán)問題上的進展時,一項獨立評論發(fā)現(xiàn),該公司為檢測算法偏見而做出的努力非常危險,使用戶容易受到操縱。

根據(jù)今天早些時候發(fā)布的審計報告,F(xiàn)acebook發(fā)現(xiàn)算法偏差的努力主要仍在只有少數(shù)團隊進行的試點項目中。該報告的作者,民權(quán)律師勞拉·墨菲(Laura Murphy)和梅根·卡塞斯(Megan Cacace)指出,該公司越來越依賴人工智能來完成諸如預測用戶可能點擊哪些廣告并清除有害內(nèi)容等任務。

報告稱,但是這些工具,以及Facebook在AI團隊多元化等領(lǐng)域所做的其他嘗試性努力,都必須走得更遠,更快。盡管該小組在為期兩年的審查中對Facebook進行了獨特的觀察,但任何采用AI的公司都將很好地研究算法偏差問題。

20200712052729841.jpg

報告稱:“Facebook已有責任確保對數(shù)十億人產(chǎn)生重要影響的算法和機器學習模型不會產(chǎn)生不公平或不利的后果。”“審計師認為,F(xiàn)acebook需要更加迫切地解決這些問題?!?/span>

該報告發(fā)布之際,F(xiàn)acebook面臨歷史性的廣告抵制。“停止仇恨為營利”活動得到396個廣告商的支持,他們停止了在平臺上的支出,要求Facebook采取更大膽的步驟來反對種族主義,厭女癥和虛假信息。

本周早些時候,F(xiàn)acebook首席執(zhí)行官馬克·扎克伯格(Mark Zuckerberg)會見了民權(quán)組織,但堅稱他的公司不會回應財務壓力,令與會者感到失望。

首席運營官謝麗爾·桑德伯格(Sheryl Sandberg)在博客中稱自己是“第一家接受此類審核的社交媒體公司”,以此來得分。她還對兩年前完成報告的時間點了點頭。她的文章“在爭取民權(quán)方面取得進步,但還有很長的路要走”,強調(diào)了Facebook的觀點,即它正在與好戰(zhàn)斗爭。

桑德伯格寫道:“沒有針對這些問題的快速解決方案,也不應該有?!薄斑@次審核是對我們?nèi)绾卧诠镜母鱾€層面上加強和促進民權(quán)的深入分析,但這只是旅程的開始,而不是終點。越來越清楚的是,我們還有很長的路要走。盡管我們的缺點很難被專家揭露,但這無疑對我們公司來說是一個非常重要的過程。我們將敦促行業(yè)內(nèi)及其他行業(yè)的公司也這樣做。”

盡管注意到了Facebook的許多內(nèi)部努力,但作者們并沒有那么高興。

作者寫道:“經(jīng)過多年的接觸,民權(quán)界的許多人感到沮喪,沮喪和憤怒,他們懇求公司在促進平等和反對歧視的同時做更多的事情,同時還維護言論自由,”作者寫道。

該報告剖析了Facebook在公民權(quán)利問責制,選舉,普查,內(nèi)容審核,多樣性和廣告方面的工作。但是,它也特別關(guān)注算法偏差問題。

報告稱:“人工智能通常被認為是客觀,科學和準確的,但在許多情況下卻并非如此?!薄八惴ㄊ怯刹豢杀苊獾鼐哂衅姾图僭O(shè)的人們創(chuàng)建的,這些偏見可以通過決定哪些數(shù)據(jù)很重要或算法的結(jié)構(gòu),以及通過信任反映過去實踐,現(xiàn)有或歷史不平等,假設(shè)的數(shù)據(jù)而注入算法中?;蚩贪逵∠?。算法還會驅(qū)使并加劇不必要的不利差距……隨著算法在我們社會中越來越普遍,確保算法的公正性,公正性和非歧視性,并且不僅僅是放大先前存在的刻板印象或差距,變得越來越重要?!?/span>

作者強調(diào)了由“倫理學家,社會和政治科學家,政策專家,AI研究人員和工程師組成的團隊領(lǐng)導的Facebook負責任AI(RAI)努力,他們致力于了解與在Facebook產(chǎn)品中部署AI相關(guān)的公平性和包容性問題?!?/span>

RAI工作的一部分涉及開發(fā)可在公司范圍內(nèi)使用的工具和資源,以確保AI公平。迄今為止,該組織已開發(fā)出“在Facebook上實現(xiàn)公平和融入AI的四管齊下的方法”。

創(chuàng)建準則和工具以限制意外偏見。

制定公平的咨詢程序。

參與有關(guān)AI偏見的外部討論。

使AI團隊多樣化。

作為第一個支柱的一部分,F(xiàn)acebook創(chuàng)建了“公平流”工具來通過檢測基礎(chǔ)數(shù)據(jù)的意外問題并發(fā)現(xiàn)有缺陷的預測來評估算法。但是“公平流”仍處于試驗階段,具有訪問權(quán)限的團隊純粹是自愿使用它的。去年下半年,F(xiàn)acebook還啟動了公平咨詢試點項目,以使發(fā)現(xiàn)產(chǎn)品偏差問題的團隊能夠在內(nèi)部與具有更多專業(yè)知識的團隊聯(lián)系,以提供反饋和建議。在作者敬重這些步驟的同時,他們還敦促Facebook在整個公司范圍內(nèi)擴展此類程序,并強制使用它們。

報告說:“審核員堅信,旨在促進發(fā)現(xiàn)問題并幫助解決公平問題的流程和指導必須是強制性的(而非自愿的),并且是整個公司范圍內(nèi)的?!薄耙簿褪钦f,應該要求所有團隊構(gòu)建模型都遵循全面的最佳實踐指導,并且應該定期測試現(xiàn)有算法和機器學習模型。這既包括構(gòu)建模型的指導,也包括測試模型的系統(tǒng)?!?/span>

該公司還成立了AI工作組,負責領(lǐng)導改善員工多樣性的計劃。Facebook現(xiàn)在正在佐治亞理工學院資助一項深度學習課程,以增加代表性不足的求職者的渠道。它還正在與其他幾所大學進行討論,以擴展該計劃。并利用非營利組織,研究和倡導團體擴大其招聘人數(shù)。

但再次,審查發(fā)現(xiàn)這些舉措的范圍太有限,并呼吁擴大招聘力度,并在整個公司范圍內(nèi)加強培訓和教育。

報告稱:“盡管審計師認為,有一個專門致力于AI公平和偏見問題的團隊對Facebook很重要,但確保公平和不歧視也應成為所有團隊的責任,”報告說。“為此,審計師建議,對于所有在Facebook上構(gòu)建算法和機器學習模型的團隊以及Facebook初始入職流程的一部分,都必須對培訓進行側(cè)重于理解和緩解AI偏見和歧視來源的培訓?!?/span>

立即登錄,閱讀全文
原文鏈接:點擊前往 >
版權(quán)說明:本文內(nèi)容來自于創(chuàng)視網(wǎng),本站不擁有所有權(quán),不承擔相關(guān)法律責任。文章內(nèi)容系作者個人觀點,不代表快出海對觀點贊同或支持。如有侵權(quán),請聯(lián)系管理員(zzx@kchuhai.com)刪除!
優(yōu)質(zhì)服務商推薦
更多