IT之家 4月17日消息,“我一直認為AI(人工智能)是人類正在研究的最深刻的技術,比火、電或我們過去所做的任何事情都要深刻?!?/p>
當?shù)貢r間4月16日,在哥倫比亞廣播公司的采訪節(jié)目《60分鐘》里,谷歌及其母公司Alphabet的首席執(zhí)行官桑達爾?皮查伊(Sundar Pichai)表達了他對人工智能的快速發(fā)展及其對社會潛在威脅的擔憂,并警告說社會需要為已經(jīng)推出的技術做好準備。
在《60分鐘》的采訪中,采訪者斯科特?佩利(Scott Pelley)嘗試了谷歌的幾個人工智能項目,他表示“說不出話來”,覺得它們“令人不安”(IT之家注:這里指的是谷歌的聊天機器人Bard等產(chǎn)品)。
皮查伊告訴佩利:“我們的社會需要適應它,”他補充說,各行各業(yè)或許都會受到影響,作家、會計師、建筑師,以及軟件工程師在內(nèi)的各種“知識工作者”或?qū)⒈蝗斯ぶ悄茴嵏病?/p>
“這將影響到每家公司的每一款產(chǎn)品”,“例如,你可能是一名放射科醫(yī)生,如果你從現(xiàn)在開始的5到10年有一個人工智能合作者。你早上來,假設你有一百件事情要處理,它可能會說,‘這些是你首先需要處理的最嚴重的案件?!?/p>
佩利考察了谷歌內(nèi)部其他擁有先進AI產(chǎn)品的領域,包括DeepMind,他們的機器人甚至可以踢足球,而它們卻并未從人類那里學習這一技能。,除此之外,谷歌還展示了一款識別物品的機器人,并為佩利取來了他想要的蘋果。
在警告人工智能的后果時,皮查伊表示,虛假信息、假新聞和圖像問題的規(guī)模將“大得多”,“它可能造成傷害”。
上個月,谷歌向公眾推出了人工智能聊天機器人巴德(Bard),而此前微軟已經(jīng)在其搜索引擎必應(Bing)中引入OpenAI的GPT技術。
然而,最近幾周,各領域公眾人士開始表達對這種快速發(fā)展后果的擔憂。今年3月,馬斯克、史蒂夫?沃茲尼亞克和數(shù)十名學者呼吁立即暫停與大型語言模型相關的訓練“實驗”,這些模型“比GPT-4更強大”,這份信有著超過2.5萬人署名。
佩利在節(jié)目中評論道:“像谷歌這樣的巨頭和你從未聽說過的初創(chuàng)公司之間的競爭壓力正在推動人類走向未來,無論是否準備好?!?/p>
谷歌發(fā)布了一份文件,概述了“監(jiān)管人工智能的建議”,但皮查伊表示,社會必須迅速適應法規(guī)、懲罰濫用的法律、國家間的條約,以確保人工智能對世界的安全,以及“符合包括道德在內(nèi)的人類價值觀”的規(guī)則。
“這不是一家公司能決定的”,“這就是為什么我認為這一領域的發(fā)展不僅需要工程師,還需要社會科學家、倫理學家、哲學家等等。”
當被問及社會是否為巴德這樣的人工智能技術做好了準備時,皮查伊回答說:“一方面,我覺得沒有,因為我們作為社會機構(gòu)可以思考和適應的速度,與技術發(fā)展的速度相比,似乎不匹配?!比欢硎舅軜酚^,因為與過去的其他技術相比,“開始擔心其影響的人的數(shù)量”很早就開始了。