韓國著名入口/搜索引擎網(wǎng)站Naver上周宣布,旗下Naver Place店家與餐廳搜索/推薦服務(wù),決定將推論(inference)過程使用的AI服務(wù)器芯片供應(yīng)商,由英偉達(dá)(Nvidia Corp.)轉(zhuǎn)換至英特爾(Intel Corp.),主要是受到供貨吃緊及漲價問題影響。對此,分析人士相信,此舉雖然可行、但應(yīng)用范圍有限,賽局并未出現(xiàn)重大變化。
Seeking Alpha、Investing.com報道,Bernstein由Bokyung Suh帶領(lǐng)的分析師團(tuán)隊6日發(fā)布研究報告指出,Naver以英特爾的Sapphire Rapids CPU及AI加速器取代英偉達(dá)H100雖然可行,但卻非“理想”狀態(tài),因為訓(xùn)練大型語言模型(LLM)等AI任務(wù)的成本非常高昂。
Bernstein指出,截至目前為止,英偉達(dá)H100依舊是全世界性能最佳的AI芯片,執(zhí)行推論任務(wù)的效果比前代A100提升1.5-4.5倍,推論測試結(jié)果也優(yōu)于Google、高通(Qualcomm)、英特爾旗下Habana Labs推出的AI加速器。
報告稱,把GPU改換成CPU并非理想選擇,因為AI任務(wù)的成本非常高,尤其是在LLM模型的訓(xùn)練方面。即便H100售價昂貴許多,且面臨生產(chǎn)與供給窘境,但“訓(xùn)練”(training)與“推論”的總成本依舊較低。
該證券相信,中長期而言,Naver恐怕無法以英特爾CPU代替GPU,為LLM模型進(jìn)行訓(xùn)練、微調(diào)。結(jié)論是,Naver、英特爾的合作項目雖可行,但應(yīng)用范圍相當(dāng)窄,或許只能用于推論、或參數(shù)(parameter)必須調(diào)得夠低,肯定無法改變賽局(definitely not the game changer yet)。
報告并指出,Naver的生成式AI LLM模型參數(shù)約200B,但Naver Place LLM的參數(shù)僅占整個模型不到5%,不是用來訓(xùn)練或微調(diào)的。
英偉達(dá)6日聞訊上漲1.66%、收457.51美元,創(chuàng)10月16日以來收盤新高;年初迄今飆漲213.06%。英偉達(dá)預(yù)定11月21日美股盤后公布財報。
Barron's 6日報道,F(xiàn)actSet統(tǒng)計顯示,分析師普遍預(yù)測英偉達(dá)今(2023)年營收有望增長接近一倍至525億美元,每股盈余則有望增長近三倍。FactSet預(yù)測,拜未來幾年云計算支出將有雙位數(shù)增長之賜,英偉達(dá)未來5年每年的營收有望增長超過20%、于2028年達(dá)到將近1,500億美元,這會使每股盈余的年增長率逼近30%。