2022年底,OpenAI研發(fā)的ChatGPT一經(jīng)發(fā)布,迅速引發(fā)了全球?qū)τ谏墒饺斯ぶ悄芗夹g(shù)(下文簡(jiǎn)稱(chēng)“生成式AI技術(shù)”)的廣泛關(guān)注。
生成式AI技術(shù)的廣泛應(yīng)用給很多行業(yè)帶來(lái)了新的市場(chǎng)增長(zhǎng)引爆點(diǎn),但同時(shí),也帶來(lái)了偽造賬戶、傳播虛假信息、數(shù)據(jù)安全等風(fēng)險(xiǎn),其中最需要關(guān)注、防范的風(fēng)險(xiǎn)之一,就是欺詐分子利用生成式AI技術(shù)進(jìn)行深度偽造從而實(shí)施的新型詐騙(下文簡(jiǎn)稱(chēng)“AI欺詐”):
·根據(jù)內(nèi)蒙古包頭市公安局5月公布的警情,福州市某科技公司法人代表郭先生10分鐘內(nèi)被騙430萬(wàn)元,欺詐分子通過(guò)AI換臉和擬聲技術(shù),佯裝熟人實(shí)施詐騙。
·無(wú)獨(dú)有偶,河南省反詐騙中心又在8月29日又公布了一起利用“AI換臉”的電信網(wǎng)絡(luò)詐騙案。欺詐分子假扮被害人雷某的朋友,通過(guò)誘導(dǎo)被害人添加新QQ號(hào),在通過(guò)AI技術(shù)偽造的視頻與被害人連線視頻電話,取得被害人的信任,最后以競(jìng)標(biāo)項(xiàng)目缺少資金需要周轉(zhuǎn)為由短時(shí)間內(nèi)行騙98萬(wàn)元。
·根據(jù)網(wǎng)絡(luò)公開(kāi)信息的講述,詐騙分子通過(guò)AI技術(shù)偽造了一位德國(guó)公司高管的音頻片段,并利用這段偽造的音頻,聯(lián)系了該公司在英國(guó)分公司的CEO,要求其安排員工給一個(gè)匈牙利的賬戶匯款24.3萬(wàn)美元,欺詐分子利用這段偽造的音頻給英國(guó)分公司負(fù)責(zé)人前后致電了3次電話均未被當(dāng)事人發(fā)覺(jué)異常,但幸運(yùn)的是,付款請(qǐng)求被拒絕,公司沒(méi)有造成損失。
·根據(jù)海外媒體的報(bào)道,詐騙分子通過(guò)AI技術(shù)偽造了一位美國(guó)小孩遭遇困境的聲音和場(chǎng)景,并利用這段偽造音頻聯(lián)系了小孩的母親,在確認(rèn)這位母親已上當(dāng)且認(rèn)為自己小孩遇險(xiǎn)后,詐騙分子開(kāi)始勒索,警告這位母親不允許報(bào)警,并提出了要給付100萬(wàn)美元的贖金要求。
上述四個(gè)案例,講述的正是近期日漸嚴(yán)重的新型騙局,詐騙分子利用AI技術(shù)生成虛假視頻、圖片或聲音,冒充領(lǐng)導(dǎo)、朋友、親戚等熟人身份,誘導(dǎo)受害者進(jìn)行轉(zhuǎn)賬、提現(xiàn)或在當(dāng)事人上當(dāng)之后,進(jìn)行更嚴(yán)重的勒索——這樣的欺詐行為成功率竟接近100%,給公眾財(cái)產(chǎn)安全、信息安全、甚至人身安全都帶來(lái)了嚴(yán)重威脅。
本周,在2023年國(guó)家網(wǎng)絡(luò)安全宣傳周發(fā)布的網(wǎng)絡(luò)安全手冊(cè)中,也再次強(qiáng)調(diào)了要對(duì)AI欺詐的風(fēng)險(xiǎn)提起足夠的重視。
2023年國(guó)家網(wǎng)絡(luò)安全周《網(wǎng)絡(luò)知識(shí)宣傳手冊(cè)》截圖
生成式AI全球監(jiān)管現(xiàn)狀
面對(duì)生成式AI模型的激增和可能帶來(lái)的風(fēng)險(xiǎn),在監(jiān)管層面,大部分國(guó)家都已經(jīng)在啟動(dòng)探索,力爭(zhēng)能夠制定出既能充分利用AI技術(shù)、又要能夠控制過(guò)度使用的規(guī)則,以期能對(duì)AI技術(shù)的發(fā)展和應(yīng)用實(shí)施更科學(xué)的監(jiān)管,防范風(fēng)險(xiǎn),確保公眾利益和安全。
2023年8月15日,中國(guó)《生成式人工智能服務(wù)管理暫行辦法》(下文簡(jiǎn)稱(chēng)“中國(guó)生成式AI服務(wù)管理辦法”)正式施行,明確了生成式AI服務(wù)提供者應(yīng)當(dāng)依法開(kāi)展的活動(dòng)、遵守的規(guī)定,以及具體的服務(wù)規(guī)范,落實(shí)了監(jiān)督檢查和法律責(zé)任。
以色列、日本等國(guó)也對(duì)生成式AI技術(shù)應(yīng)用的迅速普及做出了回應(yīng),為受版權(quán)保護(hù)的數(shù)據(jù)是否能夠用于生成式AI模型的訓(xùn)練明確了路徑。
在中東地區(qū),阿聯(lián)酋成立了人工智能實(shí)踐工作組,率先圍繞AI戰(zhàn)略的實(shí)施發(fā)布了立法草案。
不過(guò),整體而言,全球已在人工智能領(lǐng)域立法的國(guó)家數(shù)量還是相對(duì)較少,大多數(shù)國(guó)家尚未公布專(zhuān)門(mén)針對(duì)人工智能技術(shù)發(fā)展的規(guī)制性文件。
但盡管如此,各國(guó)監(jiān)管部門(mén)積極探索有效監(jiān)管AI技術(shù)的趨勢(shì)有目共睹。因此,ADVANCE.AI整理了出海企業(yè)普遍關(guān)注的東南亞、拉丁美洲和歐美地區(qū)代表國(guó)家正在實(shí)踐或正在規(guī)劃的針對(duì)AI技術(shù)應(yīng)用的管理舉措,也同時(shí)摘取了頭部數(shù)字服務(wù)平臺(tái)對(duì)生成式AI技術(shù)應(yīng)用發(fā)布的企業(yè)自治管理辦法,讓我們?cè)诹私釧I欺詐風(fēng)險(xiǎn)的同時(shí),提前一覽AI技術(shù)的監(jiān)管合規(guī)趨勢(shì):
01
東南亞
據(jù)路透社2023年6月的報(bào)道,東南亞國(guó)家正在起草人工智能治理與倫理指南,旨在為這項(xiàng)蓬勃發(fā)展的技術(shù)設(shè)置“防護(hù)欄”。目前起草工作正在進(jìn)行中,預(yù)計(jì)可能在2023年年底完成,指南由東盟成員國(guó)批準(zhǔn)后或于2024年年初的東盟數(shù)字部長(zhǎng)會(huì)議上對(duì)外公布。
以新加坡為例
新加坡暫沒(méi)有針對(duì)AI技術(shù)進(jìn)行專(zhuān)項(xiàng)監(jiān)管立法,目前以現(xiàn)有的民刑事監(jiān)管框架進(jìn)行監(jiān)管,行業(yè)主管部門(mén)也會(huì)發(fā)布指導(dǎo)意見(jiàn)供企業(yè)參考。
AI Verify(AI驗(yàn)證)是新加坡發(fā)布的人工智能治理測(cè)試框架和軟件工具包,最初由新加坡監(jiān)管機(jī)構(gòu)信息通信媒體發(fā)展局(常見(jiàn)簡(jiǎn)稱(chēng)IMDA)與行業(yè)參與者協(xié)商后開(kāi)發(fā)。AI Verify面向開(kāi)源社區(qū)開(kāi)放,旨在通過(guò)標(biāo)準(zhǔn)化測(cè)試,幫助組織根據(jù)國(guó)際公認(rèn)的人工智能治理原則驗(yàn)證其人工智能系統(tǒng)的性能。
而對(duì)于生成式AI技術(shù),新加坡專(zhuān)門(mén)發(fā)布有一份討論文件,分享新加坡計(jì)劃為可信和負(fù)責(zé)任地采用生成式AI技術(shù)建立生態(tài)系統(tǒng)的方法,以實(shí)現(xiàn)生成式AI的可信和充滿活力的生態(tài)系統(tǒng),這份文件的指導(dǎo)思想可能為新加坡未來(lái)設(shè)置具體的監(jiān)管條例奠定理論基礎(chǔ)。
該份文件提出了“六個(gè)維度”,為政策制定者提供了一個(gè)初步框架,以加強(qiáng)人工智能治理的基礎(chǔ),降低生成式AI技術(shù)可能出現(xiàn)的風(fēng)險(xiǎn),這六個(gè)維度是:
①以問(wèn)責(zé)制為治理的基礎(chǔ)
②從數(shù)據(jù)中提取模型生命周期的關(guān)鍵組件
③模型開(kāi)發(fā)和部署
④第三方保證和評(píng)估
⑤長(zhǎng)期的安全性和一致性
⑥為公共利益而開(kāi)發(fā)
02
歐盟
歐盟是制定人工智能相關(guān)規(guī)則的先行者之一,其立法思路常被其他成文法國(guó)家借鑒。
2021年5月,歐盟首次公開(kāi)了《人工智能法案》(The AI Act),此為全球首個(gè)人工智能法案,旨在制定在歐盟范圍內(nèi)統(tǒng)一的人工智能治理體系。
歐盟的人工智能法案在充分考慮了AI技術(shù)的發(fā)展水平之后,確立了以風(fēng)險(xiǎn)為基準(zhǔn)的人工智能治理框架。
以風(fēng)險(xiǎn)為基準(zhǔn),首先在于風(fēng)險(xiǎn)場(chǎng)景的劃分,比如,當(dāng)AI技術(shù)應(yīng)用于就業(yè)、邊境管理、教育領(lǐng)域時(shí),是“高風(fēng)險(xiǎn)”案例,必須要遵守“高風(fēng)險(xiǎn)”案例的安全要求,包括要進(jìn)行風(fēng)險(xiǎn)評(píng)估、提交日志記錄確保透明度等。
歐盟的人工智能法案并未將ChatGPT等“通用”的AI技術(shù)用例視為高風(fēng)險(xiǎn),但對(duì)于“AI基礎(chǔ)模型”或經(jīng)過(guò)大量數(shù)據(jù)訓(xùn)練的強(qiáng)大AI系統(tǒng),設(shè)置了風(fēng)險(xiǎn)評(píng)估和保障透明度要求。
例如,基礎(chǔ)模型的供應(yīng)商,包括OpenAI、谷歌和微軟,將被要求聲明是否使用受版權(quán)保護(hù)的材料來(lái)訓(xùn)練AI模型。但是,沒(méi)有類(lèi)似的規(guī)定要求聲明是否在訓(xùn)練期間使用了個(gè)人數(shù)據(jù)。
03
美國(guó)
基于美國(guó)體制的特點(diǎn),人工智能相關(guān)戰(zhàn)略主要依靠行政命令和指導(dǎo)性文件推動(dòng)。2023年5月,美國(guó)發(fā)布了《國(guó)家人工智能研發(fā)戰(zhàn)略計(jì)劃》(The National Artificial Intelligence R&D Strategic Plan),除了對(duì)2016、2019年版《國(guó)家人工智能研發(fā)戰(zhàn)略計(jì)劃》進(jìn)行更新,還提出要評(píng)估聯(lián)邦機(jī)構(gòu)對(duì)《2022年國(guó)家人工智能倡議法案》(常見(jiàn)簡(jiǎn)稱(chēng)NAIIA)和《國(guó)家人工智能研發(fā)戰(zhàn)略計(jì)劃》的具體執(zhí)行情況。
據(jù)悉,美國(guó)國(guó)家電信和信息管理局亦計(jì)劃起草一份報(bào)告,研究“確保AI系統(tǒng)能夠按照聲稱(chēng)的那樣工作,并且不會(huì)造成傷害”。
2023年4月,美國(guó)科技倡導(dǎo)組織“商業(yè)軟件聯(lián)盟”(常見(jiàn)簡(jiǎn)稱(chēng)BSA)公開(kāi)發(fā)文呼吁在國(guó)家隱私立法基礎(chǔ)上制定管理AI技術(shù)使用的規(guī)則。這份聲明不僅引導(dǎo)美國(guó)國(guó)會(huì)將有關(guān)AI的監(jiān)管法規(guī)整合在“美國(guó)數(shù)據(jù)隱私和保護(hù)法案”之中,還向美國(guó)國(guó)會(huì)提出了四個(gè)明確的呼吁,包括:
美國(guó)國(guó)會(huì)應(yīng)該明確要求相關(guān)企業(yè)必須評(píng)估人工智能的設(shè)計(jì)或影響的時(shí)效。
當(dāng)人工智能被用于做出“重大決定”時(shí),這些要求是否應(yīng)該生效,美國(guó)國(guó)會(huì)需要對(duì)此給出定義。
美國(guó)國(guó)會(huì)應(yīng)該指定一個(gè)現(xiàn)有的聯(lián)邦機(jī)構(gòu)來(lái)審查公司是否遵守了規(guī)則。
美國(guó)國(guó)會(huì)應(yīng)該要求公司為高風(fēng)險(xiǎn)的人工智能制定風(fēng)險(xiǎn)管理計(jì)劃。
04
巴西
2022年3月,巴西提出新的AI技術(shù)監(jiān)管框架草案(下文簡(jiǎn)稱(chēng)"新草案”),計(jì)劃規(guī)范人工智能系統(tǒng)能夠被負(fù)責(zé)任地使用。
新草案擬議的監(jiān)管思路,也提出了和歐盟地區(qū)類(lèi)似的監(jiān)管思路,比如:以基于風(fēng)險(xiǎn)的辦法監(jiān)管AI的應(yīng)用。
新草案要求要對(duì)AI技術(shù)服務(wù)相關(guān)系統(tǒng)或服務(wù)方進(jìn)行初步評(píng)估,將風(fēng)險(xiǎn)程度分為“過(guò)度風(fēng)險(xiǎn)”或“高風(fēng)險(xiǎn)”。被歸類(lèi)為存在“過(guò)度風(fēng)險(xiǎn)”的AI系統(tǒng)將不被允許部署或使用,并尤其禁止公共機(jī)構(gòu)部署此類(lèi)系統(tǒng)。
“高風(fēng)險(xiǎn)”AI應(yīng)用用例包括用于關(guān)鍵基礎(chǔ)設(shè)施、安全設(shè)施、教育、招聘、人力資源管理、衛(wèi)生系統(tǒng)等場(chǎng)景的用例。
此外,新草案強(qiáng)調(diào)了人工智能決策的透明度和可解釋性的重要性,也設(shè)置了保護(hù)兒童、青少年、老年人和殘疾人等弱勢(shì)群體的措施,強(qiáng)調(diào)了用戶不受歧視和有權(quán)糾正已查明偏見(jiàn)的權(quán)利,并對(duì)劃為“高風(fēng)險(xiǎn)”用例的AI系統(tǒng),提出了需要全程監(jiān)控、測(cè)試偏見(jiàn)預(yù)防措施、保障系統(tǒng)安全等措施。
值得注意的是,巴西針對(duì)AI技術(shù)的新草案提出了AI技術(shù)提供者的嚴(yán)格責(zé)任制度,并為此設(shè)置了AI系統(tǒng)提供商或運(yùn)營(yíng)商的民事責(zé)任保護(hù)制度、重大安全事件的報(bào)告義務(wù)。
總結(jié)
各國(guó)監(jiān)管機(jī)構(gòu)對(duì)于AI技術(shù)的監(jiān)管舉措,普遍形成共識(shí)的領(lǐng)域在于:
采用基于風(fēng)險(xiǎn)的監(jiān)管方式,明確用于教育、公共設(shè)施等領(lǐng)域的AI技術(shù)屬于高風(fēng)險(xiǎn)AI應(yīng)用場(chǎng)景。
要求AI技術(shù)提供商承擔(dān)管理責(zé)任。
確保透明度、監(jiān)控、預(yù)防算法偏見(jiàn)。
生成式AI行業(yè)自治舉措
對(duì)于顛覆性的、或可能帶來(lái)廣泛影響的AI技術(shù),全球各國(guó)監(jiān)管機(jī)構(gòu)都在進(jìn)行治理話語(yǔ)權(quán)的競(jìng)賽,而與AI應(yīng)用密切相關(guān)的數(shù)字平臺(tái)頭部企業(yè),這一次也在積極參與治理話語(yǔ)權(quán)的發(fā)聲,在法定合規(guī)義務(wù)邊界尚不清晰的情況下,主動(dòng)戴起“鐐銬”舞蹈,積極發(fā)布行業(yè)自治舉措。
以短視頻平臺(tái)“抖音”為例
2023年5月9日,抖音發(fā)布了多項(xiàng)關(guān)于應(yīng)用生成式AI技術(shù)內(nèi)容的自治管理要求,值得關(guān)注的要求包括:
平臺(tái)生態(tài)系統(tǒng)中的創(chuàng)作者、主持人、用戶、商家、廣告商等參與者在使用生成式AI技術(shù)生成內(nèi)容時(shí),應(yīng)在抖音應(yīng)用程序上對(duì)通過(guò)AI技術(shù)生成的內(nèi)容進(jìn)行顯著標(biāo)注。這將幫助其他用戶區(qū)分虛擬和現(xiàn)實(shí),尤其是在令人困惑的場(chǎng)景中。
無(wú)論內(nèi)容是如何生成的,出版商都要對(duì)通過(guò)AI技術(shù)生成的內(nèi)容所產(chǎn)生的相應(yīng)后果負(fù)責(zé)。
使用虛擬人物進(jìn)行直播或創(chuàng)建以虛擬人物為角色的賬號(hào)的用戶,必須在平臺(tái)上注冊(cè)相應(yīng)的虛擬人物形象,發(fā)布虛擬人物形象的用戶也需要通過(guò)實(shí)名認(rèn)證。
禁止用戶使用生成式AI技術(shù)創(chuàng)作和發(fā)布侵權(quán)內(nèi)容,包括但不限于肖像權(quán)、知識(shí)產(chǎn)權(quán)等。一旦發(fā)現(xiàn),平臺(tái)將予以嚴(yán)厲處罰。
使用注冊(cè)的虛擬角色進(jìn)行直播時(shí),必須由真人驅(qū)動(dòng)才能進(jìn)行實(shí)時(shí)交互,而不能完全由人工智能驅(qū)動(dòng)。
企業(yè)牽頭構(gòu)建的治理體系,一方面,可以防范風(fēng)險(xiǎn),保障用戶權(quán)益和平臺(tái)運(yùn)營(yíng)的穩(wěn)定性;另一方面,也可以向監(jiān)管部門(mén)傳遞積極的信號(hào),告知監(jiān)管部門(mén)企業(yè)可以通過(guò)自治的方式有效控制新技術(shù)的應(yīng)用風(fēng)險(xiǎn),這將有利于行業(yè)整體的穩(wěn)定發(fā)展,是各類(lèi)企業(yè)值得借鑒的方法。
在海外地區(qū),包括TikTok、OpenAI、Adobe在內(nèi)的10家大型科技企業(yè)與人工智能研究非營(yíng)利組織Partnership on AI已共同簽署了一份“負(fù)責(zé)任地使用生成式AI制造內(nèi)容的指南框架”,該指南呼吁生成式AI技術(shù)的建設(shè)者、內(nèi)容分銷(xiāo)者、創(chuàng)作者能夠以更加透明的態(tài)度明確生成式AI應(yīng)該如何負(fù)責(zé)任地使用,并給行業(yè)參與者的應(yīng)用給出明確的建議,這些指導(dǎo)自治管理的建議包括:
·確保通過(guò)生成式AI或相關(guān)技術(shù)生成的內(nèi)容(常見(jiàn)簡(jiǎn)稱(chēng)“合成媒體,Synthetic Media”)是用來(lái)支持創(chuàng)作、知識(shí)共享和評(píng)論,而不是用來(lái)傷害、剝奪他人權(quán)利。
·基于同意、披露和透明度的原則去負(fù)責(zé)任地開(kāi)發(fā)、創(chuàng)建和共享關(guān)鍵技術(shù)。
·當(dāng)平臺(tái)用戶與通過(guò)生成式AI技術(shù)生成的內(nèi)容進(jìn)行交互時(shí),平臺(tái)必須要向用戶告知這是來(lái)自生成式AI技術(shù)生成的內(nèi)容,包括可以展示生成水印、聲明、或披露AI模型中訓(xùn)練的數(shù)據(jù)或元數(shù)據(jù)中可追溯的元素。
·在開(kāi)發(fā)代碼和數(shù)據(jù)集、訓(xùn)練模型以及應(yīng)用軟件生產(chǎn)合成媒體時(shí),應(yīng)盡最大努力在應(yīng)用有通過(guò)生成式AI技術(shù)產(chǎn)生的內(nèi)容中,間接披露相關(guān)必要元素。
·確定了要重視的、負(fù)責(zé)任地使用生成式AI內(nèi)容的場(chǎng)景類(lèi)別(可以理解成是高風(fēng)險(xiǎn)場(chǎng)景),包括藝術(shù)、教育、研究等,并要求要制定風(fēng)險(xiǎn)緩釋措施,能夠在認(rèn)識(shí)到出現(xiàn)風(fēng)險(xiǎn)情況后,即時(shí)做出調(diào)整。
值得注意的是,該指南羅列了生成式AI內(nèi)容可能造成的風(fēng)險(xiǎn)場(chǎng)景,企業(yè)可以仔細(xì)了解這些風(fēng)險(xiǎn)場(chǎng)景,提前防范:
·大規(guī)模創(chuàng)建新的身份和賬戶,用虛假賬戶代表獨(dú)特的人,以“制造輿論”
·冒充個(gè)人獲取未經(jīng)授權(quán)的信息或權(quán)限
·主動(dòng)撥打電話、發(fā)帖或發(fā)送信息,進(jìn)行欺騙或騷擾
·為經(jīng)濟(jì)利益進(jìn)行欺詐
·發(fā)布關(guān)于個(gè)人、團(tuán)體或組織的虛假信息
·剝削或操縱兒童
·欺凌和騷擾
·間諜活動(dòng)
·操縱民主和政治進(jìn)程,包括欺騙選民投票支持或反對(duì)候選人,通過(guò)提供虛假陳述或行為損害候選人的聲譽(yù),通過(guò)欺騙影響選舉結(jié)果。
·市場(chǎng)操縱和破壞企業(yè)正常經(jīng)營(yíng)
·制造或煽動(dòng)仇恨言論、歧視、誹謗、恐怖主義或暴力行為
·誹謗和名譽(yù)破壞
·非自愿的親密性內(nèi)容
·敲詐勒索
首批承諾遵守該指南的10家公司是Adobe、BBC、加拿大廣播公司、Bumble、OpenAI、TikTok、Witness,初創(chuàng)公司Synthesia、D-ID和Respeecher。
指南同時(shí)建議,對(duì)于可能會(huì)成為生成式AI內(nèi)容傳播渠道的在線平臺(tái)(即指社交媒體、直播平臺(tái)、游戲、電商平臺(tái)等),務(wù)必要通過(guò)部署合規(guī)的技術(shù)解決方案、用戶報(bào)告制度和員工內(nèi)控措施,有效識(shí)別可能在平臺(tái)上傳播的、具有危害的生成式AI內(nèi)容(包括但不限于虛假賬戶、偽造產(chǎn)品圖片、惡意輿論等)。
并且,如果已知有相關(guān)風(fēng)險(xiǎn)內(nèi)容存在在線平臺(tái)時(shí),要通過(guò)打標(biāo)簽、降級(jí)、刪除或其他手段積極干預(yù)調(diào)整。而一套端到端的、可定制化的、搭載了活體檢測(cè)工具、身份欺詐風(fēng)險(xiǎn)評(píng)分功能、反洗錢(qián)篩查和企業(yè)信息篩查工具的一站式數(shù)字化身份驗(yàn)證解決方案,可以幫助有需求的在線平臺(tái)高效建立一套針對(duì)生成式AI內(nèi)容可能風(fēng)險(xiǎn)的有效防范機(jī)制,且不影響在線平臺(tái)的運(yùn)營(yíng)效率和終端用戶體驗(yàn)。