IT之家 5月24日消息,微軟推出了一款由人工智能(AI)驅(qū)動的內(nèi)容審核服務型產(chǎn)品——Azure AI Content Safety(Azure AI內(nèi)容安全服務),旨在降低社區(qū)環(huán)境中的負面信息。
該產(chǎn)品提供了一系列經(jīng)過訓練的AI模型,能夠檢測圖片或文本中與偏見、仇恨、暴力等相關的負面內(nèi)容,并可以理解并檢測包含八種語言的圖片或文本,為被標記的內(nèi)容嚴重性進行打分,指示人工審核員哪些內(nèi)容需要采取行動。
微軟推出Azure AI Content Safety,可自動檢測仇恨暴力等負面網(wǎng)絡內(nèi)容
圖源Azure官網(wǎng)
Azure AI內(nèi)容安全服務內(nèi)置于Azure OpenAI服務中,并向第三方開發(fā)者開放,支持包括英語、西班牙語、德語、法語、中文、日語、葡萄牙語、意大利語在內(nèi)的八種語言。Azure OpenAI服務是一項由微軟管理、以企業(yè)為中心的服務產(chǎn)品,旨在讓企業(yè)訪問AI實驗室OpenAI的技術并增加治理功能。與其他同類型產(chǎn)品相比,Azure AI內(nèi)容安全服務能更好地理解文本內(nèi)容和文化背景,在處理數(shù)據(jù)和內(nèi)容時更加精準。
微軟表示,與其他同類型產(chǎn)品相比,該款產(chǎn)品在公正性和理解上下文方面有顯著改進,但該款產(chǎn)品仍需要依賴人工審核人員標記數(shù)據(jù)和內(nèi)容。這意味著最終其公正性還是取決于人類。而在處理數(shù)據(jù)和內(nèi)容時,人工審核人員可能帶著自己的偏見,因此依然無法做到完全中立審慎。
而在處理涉及機器學習視覺感知的議題時,因由2015年,谷歌的AI圖像識別軟件曾將有色(黑)人種標記成猩猩,引發(fā)巨大爭議事件影響。在八年后,現(xiàn)在的科技巨頭們?nèi)該摹罢握_”“重蹈覆轍”。而本月早些時候,OpenAI首席執(zhí)行官山姆?阿爾特曼在美國參議院小組委員會聽證會上,呼吁政府對人工智能(AI)進行監(jiān)管。他指出,如果這項技術出錯,會錯得很嚴重,會對世界造成重大傷害。IT之家提醒,即使是先進的AI技術也可能被濫用或誤用,因此對AI進行監(jiān)管和規(guī)范至關重要。