四個多月時間,并不算太長。但對AI技術(shù)領(lǐng)域而言,這期間發(fā)生的變化,無不謂是日新月異。
當人們對ChatGPT(GPT3.5)的驚訝還未消淡,OpenAI緊接著發(fā)布了更聰明、強大的GPT4。有人說這一前沿技術(shù)變革帶來的影響,就像是從工業(yè)時代跨入信息時代,并朝著移動互聯(lián)網(wǎng)時代邁進的變化。
在這波前沿AI技術(shù)變革刺激下,國內(nèi)外掀起了生成式AI研發(fā)潮。放眼全球,海外微軟、谷歌等科技巨頭,國內(nèi)百度、阿里等互聯(lián)網(wǎng)頭部企業(yè),均加入了AI大模型競賽中。
在2023阿里云峰會上,阿里巴巴集團董事會主席兼CEO張勇宣布,阿里巴巴所有產(chǎn)品未來將接入“通義千問”大模型,進行全面改造。他認為,面向AI時代,所有產(chǎn)品都值得用大模型重新升級。
但與這場變革相伴而生的問題是,現(xiàn)階段我們是否做好準備應(yīng)對前沿AI技術(shù)可能造成的影響。而為了進一步促進AI行業(yè)健康發(fā)展,近期不少國家相繼公開征求關(guān)于生成式AI服務(wù)規(guī)范意見。
4月11日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布“關(guān)于《生成式人工智能服務(wù)管理辦法(征求意見稿)》公開征求意見的通知”。通知第二條提到,研發(fā)、利用生成式AI產(chǎn)品,面向中華人民共和國境內(nèi)公眾提供服務(wù)的,將適用本辦法。
這意味著,國內(nèi)AIGC行業(yè)正步入規(guī)范化發(fā)展階段。而就全球趨勢來看,相關(guān)監(jiān)管也是異步同趨。
生成式AI服務(wù)管理辦法21條
在網(wǎng)信中國發(fā)布的“國家互聯(lián)網(wǎng)信息辦公室關(guān)于《生成式人工智能服務(wù)管理辦法(征求意見稿)》公開征求意見的通知”中,本辦法所稱生成式人工智能,是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)。
提供生成式AI產(chǎn)品或服務(wù)在遵守法律和社會公序方面,應(yīng)該符合以下五大要求:
1、利用生成式人工智能生成的內(nèi)容應(yīng)當體現(xiàn)社會主義核心價值觀,不得含有顛覆國家政權(quán)、推翻社會主義制度,煽動分裂國家、破壞國家統(tǒng)一,宣揚恐怖主義、極端主義,宣揚民族仇恨、民族歧視,暴力、淫穢色情信息,虛假信息,以及可能擾亂經(jīng)濟秩序和社會秩序的內(nèi)容。
2、在算法設(shè)計、訓練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過程中,采取措施防止出現(xiàn)種族、民族、信仰、國別、地域、性別、年齡、職業(yè)等歧視。
3、尊重知識產(chǎn)權(quán)、商業(yè)道德,不得利用算法、數(shù)據(jù)、平臺等優(yōu)勢實施不公平競爭。
4、利用生成式人工智能生成的內(nèi)容應(yīng)當真實準確,采取措施防止生成虛假信息。
5、尊重他人合法利益,防止傷害他人身心健康,損害肖像權(quán)、名譽權(quán)和個人隱私,侵犯知識產(chǎn)權(quán)。禁止非法獲取、披露、利用個人信息和隱私、商業(yè)秘密。
而在《征求意見稿》第六條中明確提到,廠商在利用AI產(chǎn)品向公眾提供服務(wù)前,應(yīng)當按照《具有輿論屬性或社會動員能力的互聯(lián)網(wǎng)信息服務(wù)安全評估規(guī)定》向國家網(wǎng)信部門申報安全評估,并按照《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》履行算法備案和變更、注銷備案手續(xù)。
此外,《征求意見稿》其它條例提出,廠商在提供AI服務(wù)過程中,需要用戶提供真實身份信息、加入防沉迷措施、建立用戶投訴接收處理機制等。
某種程度上,這與國內(nèi)游戲版號審批制度類似。綜合來看,本辦法若落地實施,意味著中國生成式AI產(chǎn)品將有著嚴格的審批、監(jiān)管制度。
從網(wǎng)信中國發(fā)布的信息來看,《生成式人工智能服務(wù)管理辦法》會在2023年內(nèi)落地實施。這將進一步促進中國AIGC行業(yè)健康有序發(fā)展。
值得提出的是,除了中國外,一些海外國家也已加速規(guī)范化生成式AI的發(fā)展與監(jiān)管。據(jù)《華爾街日報》報道,美國商務(wù)部4月11日就ChatGPT等相關(guān)AI產(chǎn)品服務(wù)問責措施正式公開征求意見,包括新AI模型在發(fā)布前是否應(yīng)經(jīng)過認證程序。征求意見期限為60天。
美國商務(wù)部下屬國家電信和信息管理局局長艾倫·戴維森表示:“這些AI工具即使在相對初期階段,也能做到很多令人驚訝的事情。但我們需要設(shè)置一些防護,以確保它們被負責任地使用?!?/p>
此外,海外其他國家以及一些社會機構(gòu)也表達了,對新模型AI造成影響的擔憂。
多國以安全為由嚴管ChatGPT
其實在OpenAI GPT4發(fā)布的第二周,一封名為“Pause Giant AI Experiments:An Open Latter”的公開信就引起了廣泛關(guān)注。
這封公開信指出,最近幾個月,AI大模型實驗陷入一場失控的競賽。
而“Pause Giant AI Experiments”之所以被很多人關(guān)注,在于公開信發(fā)起者們認為,現(xiàn)階段的AI公司還沒有辦法理解、預(yù)測或可靠地控制自己創(chuàng)造的大模型。人類社會對其可能造成的影響也沒有做好準備。
因此,公開信呼吁,所有的AI實驗室應(yīng)該暫停訓練比GPT4更強大的AI模型,為期至少6個月。截至目前,特斯拉 CEO(OpenAI 聯(lián)合創(chuàng)始人)伊隆?馬斯克、圖靈獎得主Yoshua Bengio等科技界大拿,已經(jīng)在這封公開信上簽名,總的支持者人數(shù)超過20000人。
此外,OpenAI CEO阿爾特曼在公開信發(fā)布的第二天表示,要實現(xiàn)通用人工智能繁榮的未來需要三個條件:技術(shù)上擁有對齊超級智能的能力;大多數(shù)領(lǐng)先的通用人工智能模型之間可以實現(xiàn)充分協(xié)調(diào);存在有效的全球監(jiān)管框架,包括民主治理在內(nèi)。
值得提出的是,除了社會機構(gòu)或個人表達對GPT4等新大模型AI發(fā)展的擔憂,一些國家政府機關(guān)甚至開始禁用相關(guān)產(chǎn)品。
例如,當?shù)貢r間3月31日,意大利個人數(shù)據(jù)保護局宣布,從即日起禁止使用聊天機器人ChatGPT,并限制開發(fā)這一平臺的OpenAI公司處理意大利用戶信息。同時個人數(shù)據(jù)保護局開始立案調(diào)查。
這是第一起政府禁止使用生成式AI的案例。而在此之后,歐洲和其他地區(qū)監(jiān)管機構(gòu)也開始關(guān)注這一問題,其中包括:
愛爾蘭數(shù)據(jù)保護委員會表示,將與所有歐盟數(shù)據(jù)保護機構(gòu)進行協(xié)調(diào);法國數(shù)據(jù)隱私監(jiān)管機構(gòu)CNIL表示,正在針對ChatGPT投訴展開調(diào)查;加拿大隱私專員辦公室,因接到“OpenAI未經(jīng)同意收集、使用和披露個人信息”指控,也已對OpenAI展開調(diào)查。
國內(nèi)一家游戲大廠技術(shù)高管曾在朋友圈如是評價ChatGPT等新AI的發(fā)展情況:“美國負責發(fā)明,中國負責落地,歐洲負責罰款,各司其職。”
但從已知消息來看,除了歐洲國家外,目前包括韓國、日本等亞洲國家,在相關(guān)方面正逐步采取嚴厲監(jiān)管措施。例如4月3日,韓國《國民日報》報道稱,包括三星、SK海力士、浦項制鐵公司在內(nèi)的多家韓企正在采取限制使用ChatGPT的措施,嚴防員工泄密。
此外,近日日本政府也宣布將制定ChatGPT在教育領(lǐng)域的使用指南,以防止使用者思維能力下降。日本內(nèi)閣官房長官松野博一表示:“在使用新技術(shù)時,必須同時關(guān)注其優(yōu)點與缺點?!?/p>
就全球趨勢來看,各國針對GPT3.5后的生成式AI服務(wù),或均將推出相匹配的監(jiān)管措施。這也意味著生成式AI正步入規(guī)范化發(fā)展階段。
結(jié)語:
當然,不可否認的是,雖然ChatGPT等AI所具備的能力還不完美,但它們對推動社會發(fā)展的作用不可小覷。
正如我們文前提到,微軟、谷歌、百度、阿里等海外內(nèi)巨頭企業(yè),加速布局AI領(lǐng)域。此外,根據(jù)不完全統(tǒng)計,自2020年GPT3發(fā)布以來,海外已有超過100家AI創(chuàng)企獲得投資。其中2022年后成立的公司約有40家。
當行業(yè)都在尋求AI領(lǐng)域的突破,這將推動科技產(chǎn)業(yè)加速變革。包括計算芯片、AIGC應(yīng)用領(lǐng)域的企業(yè),均將迎來更多機會。
但正如日本機器人專家森昌弘提出的“恐怖谷假設(shè)”,亦或是喬納森·諾蘭導演的熱門科幻美劇《西部世界》所展現(xiàn)的智能NPC世界,均在揭露人類對AI的啟示:在享受AI等前沿科技發(fā)展帶來的便利時,我們應(yīng)該為AI算法等賦予匹配人類社會價值觀的指導。
斯坦福神經(jīng)學家大衛(wèi)·伊格爾曼曾說:“人工智能在理解道德和法律上存在先天缺陷?!倍@或也是現(xiàn)階段各國推出生成式AI服務(wù)管理、監(jiān)管措施的意義所在。
而這一點也得到了ChatGPT的“肯定”。