Google用人工智能凸顯出人類認(rèn)知的缺陷

來源:cnBeta.COM
作者:maomao
時(shí)間:2022-07-05
1778
如今,一些看起來非常像人類的句子實(shí)際上是由人工智能系統(tǒng)生成的,這些系統(tǒng)已經(jīng)在大量的人類文本中進(jìn)行了訓(xùn)練。

如今,一些看起來非常像人類的句子實(shí)際上是由人工智能系統(tǒng)生成的,這些系統(tǒng)已經(jīng)在大量的人類文本中進(jìn)行了訓(xùn)練。人們習(xí)慣于假定流暢的語言來自于有思想、有感覺的人類,以至于相反的證據(jù)可能難以理解,并且認(rèn)為如果一個(gè)人工智能模型能夠流暢地表達(dá)自己,就意味著它也像人類一樣思考和感受。

因此,Google的一名前工程師最近聲稱,Google的人工智能系統(tǒng)LAMDA有自我意識(shí),因?yàn)樗梢孕坜q地生成關(guān)于其所謂感受的文本,這也許并不奇怪。這一事件和隨后的媒體報(bào)道導(dǎo)致了一些文章和帖子,懷疑關(guān)于人類語言的計(jì)算模型是有生命的說法。

由Google的LaMDA等模型生成的文本可能很難與人類寫的文本區(qū)分開來。這一令人印象深刻的成就是一項(xiàng)長(zhǎng)達(dá)數(shù)十年的計(jì)劃的結(jié)果,該計(jì)劃旨在建立能夠生成符合語法、有意義的語言的模型。今天的模型,即接近人類語言的數(shù)據(jù)和規(guī)則集,在幾個(gè)重要方面與這些早期的嘗試不同。首先,它們基本上是在整個(gè)互聯(lián)網(wǎng)上訓(xùn)練的。第二,它們可以學(xué)習(xí)相距甚遠(yuǎn)的詞語之間的關(guān)系,而不僅僅是相鄰的詞語。第三,它們通過大量的內(nèi)部進(jìn)行調(diào)整,甚至連設(shè)計(jì)它們的工程師都很難理解為什么它們會(huì)產(chǎn)生一個(gè)詞的序列而不是另一個(gè)。

大型人工智能語言模型可以進(jìn)行流暢的對(duì)話。然而,它們沒有要傳達(dá)的整體信息,所以它們的短語往往遵循常見的文學(xué)套路,這些套路是從被訓(xùn)練的文本中提取的。人腦有推斷詞語背后意圖的硬性規(guī)定。每次你參與談話時(shí),你的大腦都會(huì)自動(dòng)構(gòu)建一個(gè)談話伙伴的心理模型。然后,你利用他們所說的話,用這個(gè)人的目標(biāo)、感覺和信念來填補(bǔ)這個(gè)模型。從話語到心理模型的跳躍過程是無縫的,每當(dāng)你收到一個(gè)完整的句子時(shí)就會(huì)被觸發(fā)。這個(gè)認(rèn)知過程在日常生活中為你節(jié)省了大量的時(shí)間和精力,大大促進(jìn)了你的社會(huì)互動(dòng)。然而,在人工智能系統(tǒng)的情況下,它卻失靈了,因?yàn)樗鼞{空建立了一個(gè)心理模型。

0097e59437324aa.png

一個(gè)可悲的諷刺是,讓人們把人性賦予大型人工智能語言模型的認(rèn)知偏見也會(huì)導(dǎo)致它們以不人道的方式對(duì)待真正的人類。社會(huì)文化語言學(xué)研究表明,假設(shè)流暢的表達(dá)和流暢的思維之間的聯(lián)系過于緊密,會(huì)導(dǎo)致對(duì)不同的人產(chǎn)生偏見。例如,有外國口音的人往往被認(rèn)為是不太聰明,不太可能得到他們所勝任的工作。對(duì)那些不被認(rèn)為是有聲望的方言,如美國的南方英語,對(duì)使用手語的聾啞人,以及對(duì)有口吃等語言障礙的人,也存在類似的偏見。這些偏見是非常有害的,往往會(huì)導(dǎo)致種族主義和性別歧視的假設(shè),并被一再證明是毫無根據(jù)的。

原文鏈接:點(diǎn)擊前往 >
文章來源:cnBeta.COM
版權(quán)說明:本文內(nèi)容來自于cnBeta.COM,本站不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。文章內(nèi)容系作者個(gè)人觀點(diǎn),不代表快出海對(duì)觀點(diǎn)贊同或支持。如有侵權(quán),請(qǐng)聯(lián)系管理員(zzx@kchuhai.com)刪除!
個(gè)人VIP
小程序
快出海小程序
公眾號(hào)
快出海公眾號(hào)
商務(wù)合作
商務(wù)合作
投稿采訪
投稿采訪
出海管家
出海管家