由于ChatGPT帶來的風潮,各大科技公司無不爭相在自己的產(chǎn)品,加入大型語言模型,由于這類語言模型技術(shù)的既有限制,使得用戶容易獲得具偏見、冒犯性,甚至是與事實不符的輸出,現(xiàn)在OpenAI開始著手一系列改進,試圖解決當前ChatGPT存在的系統(tǒng)限制。
官方解釋,ChatGPT是一個大型神經(jīng)網(wǎng)絡(luò),模型行為學(xué)習自廣泛且龐大的資料,并非是由明確的程序代碼寫死。ChatGPT模型經(jīng)過預(yù)訓(xùn)練和微調(diào)兩階段,在預(yù)訓(xùn)練階段,模型會從網(wǎng)際網(wǎng)絡(luò)資料集中,學(xué)習預(yù)測語句下一個單詞的方法,但是在這個學(xué)習的過程,同時也學(xué)習了網(wǎng)際網(wǎng)絡(luò)中帶有偏見言論。
因此在微調(diào)階段,OpenAI需要用較小的資料集微調(diào)ChatGPT,以規(guī)范模型的行為,這些小資料集由人工審查者根據(jù)OpenAI指引創(chuàng)建而成。
不過,由于OpenAI無法預(yù)測所有用戶的可能輸入,因此僅在指引中概述幾個類別,人工審查者根據(jù)這些指引類別,審查和評分一系列輸入可能的模型輸出,之后再由模型總結(jié)這些審查者的反饋,套用在給用戶的回應(yīng)中。
即便經(jīng)過微調(diào)階段,ChatGPT仍然無法解決偏見問題,官方提到,雖然他們的指引里面,明確規(guī)范審查者不應(yīng)該偏袒任何政治團體,但在當前的微調(diào)階段,仍可能在過程中加入偏見。
目前OpenAI解決偏見的方法,是盡可能在指引中,向?qū)彶檎咔宄忉屍姷臐撛谙葳搴吞魬?zhàn),以及具有爭議的人物和主題,并且使微調(diào)過程變成一個反饋循環(huán),每周通過會議來解決遇到的問題,并且一再澄清指引,通過迭代讓模型表現(xiàn)越來越好。
除了偏見之外,ChatGPT還存在多個問題,像是拒絕不應(yīng)該拒絕的請求,或是無法在應(yīng)該拒絕的時候拒絕請求,甚至會編造內(nèi)容,OpenAI承諾會繼續(xù)改進這些ChatGPT的默認行為。而由于每個用戶對于人工智能的期待都不同,因此OpenAI正在改進ChatGPT,將讓用戶有更多自定義空間。
另外,OpenAI也希望讓用戶甚至是公眾,能夠影響ChatGPT的系統(tǒng)規(guī)則,避免言論權(quán)力過度集中的問題,最終使得ChatGPT能夠廣納觀點,但OpenAI坦言,這項功能有其挑戰(zhàn)性,目前先以紅隊的形式來查看ChatGPT,不過他們正在創(chuàng)建機制,希望以公眾意見教育人工智能。