AIGC的六大風險

來源:企業(yè)網D1Net
作者:Manasi Vartak
時間:2023-07-25
2844
運營ChatGPT的OpenAI公司CEO Sam Altman最近在國會聽證會上呼吁政府對AI進行監(jiān)管,引起了不小的轟動。Altman稱,“我們認為,政府的監(jiān)管干預對于減輕日益強大的AI模式的風險至關重要?!?/span>

sgfdsd.jpg

運營ChatGPT的OpenAI公司CEO Sam Altman最近在國會聽證會上呼吁政府對AI進行監(jiān)管,引起了不小的轟動。Altman稱,“我們認為,政府的監(jiān)管干預對于減輕日益強大的AI模式的風險至關重要。”

ChatGPT是AIGC的一個例子,這種技術可以通過學習嵌入在大量訓練數(shù)據(jù)中的模式,自主創(chuàng)建新的原創(chuàng)內容,如文本、圖像或音樂。AIGC在多個方面都與當前其他的機器學習技術不同。

首先,AIGC模型(如GPT和Stable Diffusion)的輸出是開放式的。這些模型從零開始生成文本和圖像數(shù)據(jù),而其他常用的判別性(discriminative)ML模型(如分類或回歸模型)創(chuàng)建的輸出屬于一組定義良好的值(例如,Yes/No,0-1之間的數(shù)字)。情感分析模型將根據(jù)一些輸入文本產生積極或消極的情緒,GPT本身可以產生許多不同類型的輸入文本。

此外,與目前使用的大多數(shù)模型相反,當前的AIGC模型已經在大量數(shù)據(jù)集上進行了訓練。例如,OpenAI在5000億個令牌上訓練了GPT-3。GPT-4、Stable Diffusion和Codex等最新版本的AIGC模型背后的組織尚未披露用于訓練模型的確切訓練數(shù)據(jù)。這引發(fā)了人們對潛在的隱私侵犯或版權侵犯的擔憂。

這些模型的絕對力量也使它們與眾不同。如今進入市場的AIGC模型比過去的任何模型都要強大,而且它們開始展示出其沒有經過專門訓練來復制的“涌現(xiàn)特性”(emergent properties,指的是在一個復雜系統(tǒng)中,一些新的、意想不到的特性逐漸顯現(xiàn)出來,這些特性在系統(tǒng)的各個組成部分中并不存在)。從實際的角度來看,這意味著用于一個功能的模型可以被重新利用并用于其他任務。

最后,這些模型本質上是不透明的。解釋一個有1750億參數(shù)的模型的結果,或者理解它是如何做出任何給定決定的,幾乎是不可能的。與此同時,這項技術仍處于初期階段,目前的AIGC模型存在眾所周知的局限性,比如“幻覺”(hallucinations,即產生明顯錯誤的信息),會產生新的風險。

AIGC的六大風險

AIGC模型的獨特屬性帶來了一系列我們在其他類型的模型中看不到的風險。以下是業(yè)務領導者在考慮AIGC項目時必須警惕的六大風險。

輸出質量問題:首先,由于其不可預測的性質,確保AIGC模型生成的輸出質量極具挑戰(zhàn)性。營銷GPT模型的一個結果可能與您的品牌指導方針一致,但另一個結果可能不一致。模型創(chuàng)作的廣告在一種文化背景下可能是合適的,但在另一種文化背景下可能是令人反感的。雖然人類可能會很快辨別出這些區(qū)別,但該模型缺乏對文化細微差別的意識,可能會無意中產生不適當?shù)膬热荨R虼?,人工審查對于評估輸出質量仍然是必不可少的。

虛構的“事實”和幻覺:第二,AIGC模型雖然發(fā)展迅速,但仍然存在明顯的局限性,最重要的可能是上面提到的模型編造“事實”時的“幻覺”。結果可能是無害的(誤報誰發(fā)明了軋棉機),也可能引發(fā)訴訟(捏造刑事指控)。在企業(yè)應用程序中,模型產生幻覺的可能性意味著,在需要準確信息(如搜索)的情況下使用這些工具之前,需要設置重要的防護機制。

版權和其他法律風險:第三,AIGC存在潛在的重大法律和監(jiān)管風險,例如,AIGC工具在未經創(chuàng)作者許可的情況下使用了受版權保護的材料。此外,AIGC應用程序的使用條款往往缺乏對用戶交互數(shù)據(jù)用于模型改進的明確規(guī)定,這可能會引發(fā)隱私和安全問題,就像涉及企業(yè)源代碼的事件一樣。此外,AIGC模型的訓練數(shù)據(jù)缺乏透明度可能會導致監(jiān)管影響,意大利出于對隱私、輸出準確性和年齡驗證的擔憂而暫時禁止ChatGPT就是明證。

有偏見的輸出:第四,基于用于訓練模型的數(shù)據(jù)中的偏見,AIGC模型與其他模型一樣容易遭受有偏見輸出的風險。例如,Stable Diffusion可能會根據(jù)提示顯示“公司首席執(zhí)行官”的圖像,并只生成白人男性的圖像。傳統(tǒng)的機器學習模型也會帶來同樣的公平和偏見風險,但當AIGC直接與客戶互動時,新AI模型的生成特性會增加風險。

易被濫用:第五,AIGC的絕對力量使其容易被“越獄”。雖然GPT的訓練主要集中在單詞預測上,但它的推理能力是一個意想不到的結果。隨著我們在AIGC模型方面取得進展,用戶可能會發(fā)現(xiàn)繞過模型最初預期功能的方法,并將其用于完全不同的目標。例如,如果您的心理健康聊天機器人是使用GPT開發(fā)的,惡意行為者可能會破解聊天機器人,引發(fā)不適當?shù)捻憫蛐孤稒C密數(shù)據(jù)。幾乎所有基于GPT構建的聊天界面在發(fā)布后不久都容易被“越獄”。

專業(yè)知識和計算成本:第六,也是最后一點,與AIGC開發(fā)應用相關的額外有形業(yè)務風險是專業(yè)知識和計算資源的有限可用性。目前,只有少數(shù)著名的技術公司能夠集中資源來使用這種技術構建彈性應用程序。雖然云提供商可以提供計算能力,或者組織可以使用OpenAI或Azure的API,但該領域的專業(yè)知識仍然集中在少數(shù)實體手中。

這并不是說業(yè)務領導者不應該推進AIGC項目。但他們應該在自己的AIGC之旅中,睜大眼睛洞察這項技術的潛在風險,并在必要時采取措施緩解這些風險。

原文鏈接:點擊前往 >
文章來源:企業(yè)網D1Net
版權說明:本文內容來自于企業(yè)網D1Net,本站不擁有所有權,不承擔相關法律責任。文章內容系作者個人觀點,不代表快出海對觀點贊同或支持。如有侵權,請聯(lián)系管理員(zzx@kchuhai.com)刪除!
掃碼關注
獲取更多出海資訊的相關信息
個人VIP
小程序
快出海小程序
公眾號
快出海公眾號
商務合作
商務合作
投稿采訪
投稿采訪
出海管家
出海管家