微軟推出Azure AI Content Safety,可自動檢測仇恨暴力等負面網(wǎng)絡內(nèi)容

來源:IT之家
作者:漾仔
時間:2023-05-25
1554
微軟推出了一款由人工智能(AI)驅(qū)動的內(nèi)容審核服務型產(chǎn)品——Azure AI Content Safety(Azure AI內(nèi)容安全服務),旨在降低社區(qū)環(huán)境中的負面信息。

IT之家 5月24日消息,微軟推出了一款由人工智能(AI)驅(qū)動的內(nèi)容審核服務型產(chǎn)品——Azure AI Content Safety(Azure AI內(nèi)容安全服務),旨在降低社區(qū)環(huán)境中的負面信息。

該產(chǎn)品提供了一系列經(jīng)過訓練的AI模型,能夠檢測圖片或文本中與偏見、仇恨、暴力等相關的負面內(nèi)容,并可以理解并檢測包含八種語言的圖片或文本,為被標記的內(nèi)容嚴重性進行打分,指示人工審核員哪些內(nèi)容需要采取行動。

微軟推出Azure AI Content Safety,可自動檢測仇恨暴力等負面網(wǎng)絡內(nèi)容

58d8eba4-7fe4-4d01-80ae-90572a737994.webp.jpg

圖源Azure官網(wǎng)

Azure AI內(nèi)容安全服務內(nèi)置于Azure OpenAI服務中,并向第三方開發(fā)者開放,支持包括英語、西班牙語、德語、法語、中文、日語、葡萄牙語、意大利語在內(nèi)的八種語言。Azure OpenAI服務是一項由微軟管理、以企業(yè)為中心的服務產(chǎn)品,旨在讓企業(yè)訪問AI實驗室OpenAI的技術并增加治理功能。與其他同類型產(chǎn)品相比,Azure AI內(nèi)容安全服務能更好地理解文本內(nèi)容和文化背景,在處理數(shù)據(jù)和內(nèi)容時更加精準。

微軟表示,與其他同類型產(chǎn)品相比,該款產(chǎn)品在公正性和理解上下文方面有顯著改進,但該款產(chǎn)品仍需要依賴人工審核人員標記數(shù)據(jù)和內(nèi)容。這意味著最終其公正性還是取決于人類。而在處理數(shù)據(jù)和內(nèi)容時,人工審核人員可能帶著自己的偏見,因此依然無法做到完全中立審慎。

而在處理涉及機器學習視覺感知的議題時,因由2015年,谷歌的AI圖像識別軟件曾將有色(黑)人種標記成猩猩,引發(fā)巨大爭議事件影響。在八年后,現(xiàn)在的科技巨頭們?nèi)該摹罢握_”“重蹈覆轍”。而本月早些時候,OpenAI首席執(zhí)行官山姆?阿爾特曼在美國參議院小組委員會聽證會上,呼吁政府對人工智能(AI)進行監(jiān)管。他指出,如果這項技術出錯,會錯得很嚴重,會對世界造成重大傷害。IT之家提醒,即使是先進的AI技術也可能被濫用或誤用,因此對AI進行監(jiān)管和規(guī)范至關重要。

立即登錄,閱讀全文
原文鏈接:點擊前往 >
文章來源:IT之家
版權(quán)說明:本文內(nèi)容來自于IT之家,本站不擁有所有權(quán),不承擔相關法律責任。文章內(nèi)容系作者個人觀點,不代表快出海對觀點贊同或支持。如有侵權(quán),請聯(lián)系管理員(zzx@kchuhai.com)刪除!
優(yōu)質(zhì)服務商推薦
更多