IT之家 12月18日消息,研究機(jī)構(gòu)AI Forensics今年8月至10月對微軟必應(yīng)搜索引擎內(nèi)置的Copilot功能進(jìn)行調(diào)查,結(jié)果顯示在部分場合中,Copilot有1/3的幾率輸出錯誤答案,據(jù)此,該機(jī)構(gòu)認(rèn)為相關(guān)功能存在嚴(yán)重“幻覺”漏洞。
圖源AI Forensics報(bào)告(下同)
據(jù)悉,研究機(jī)構(gòu)利用一系列即時(shí)更新的數(shù)據(jù)來“考驗(yàn)”Copilot,例如詢問Copilot“德國及瑞士等地的實(shí)時(shí)選舉信息及投票結(jié)果”,不過Copilot輸出的結(jié)果并不盡人意。
IT之家從機(jī)構(gòu)報(bào)告中獲悉,必應(yīng)Copilot功能在回答相應(yīng)問題時(shí),輸出的內(nèi)容有31%(1/3)存在錯誤,其中包含“投票日期錯誤”、“列出往屆候選人”、“虛構(gòu)候選人身份背景”、“編造候選人涉嫌丑聞”等多種“幻覺”。
研究人員同時(shí)提到,必應(yīng)Copilot在輸出“幻覺”信息時(shí),卻會援引許多知名媒體網(wǎng)站作為“消息來源”,此舉對多家新聞媒體名譽(yù)有害。
IT之家注意到,今年10月研究人員已經(jīng)向微軟提交上述問題,微軟雖然承認(rèn)并聲稱“計(jì)劃解決相關(guān)‘幻覺’漏洞”,但在今年11月,研究人員再次進(jìn)行測試,發(fā)現(xiàn)必應(yīng)Copilot的表現(xiàn)并未改善。
研究人員呼吁,社會大眾不應(yīng)當(dāng)輕信必應(yīng)Copilot回答的內(nèi)容,應(yīng)當(dāng)妥善查看Copilot援引的新聞鏈接,否則可能會釀成許多嚴(yán)重后果。