亞馬遜據(jù)稱成立AI模型訓(xùn)練團(tuán)隊 斥資數(shù)百萬美元

來源:新浪科技
作者:新浪科技
時間:2023-11-09
2898
知情人士透露,亞馬遜(將投資數(shù)百萬美元訓(xùn)練大型語言模型(LLM),希望它能與OpenAI和Alphabet的頂級人工模型相媲美。

新浪科技訊 北京時間11月8日晚間消息,知情人士透露,亞馬遜(將投資數(shù)百萬美元訓(xùn)練大型語言模型(LLM),希望它能與OpenAI和Alphabet的頂級人工模型相媲美。

消息人士稱,亞馬遜人工智能模型的內(nèi)部代號為“Olympus”,該模型擁有2萬億個參數(shù),這一規(guī)??赡軙屗蔀楫?dāng)前世界上正在接受訓(xùn)練的最大模型之一。OpenAI的GPT-4是目前全球最好的模型之一,據(jù)傳該模型有1萬億個參數(shù)。

亞馬遜拒絕對此消息發(fā)表評論。

該團(tuán)隊由Alexa前負(fù)責(zé)人Rohit Prasad領(lǐng)導(dǎo),他現(xiàn)在直接向首席執(zhí)行官安迪·賈西(Andy Jassy)匯報工作。作為亞馬遜人工通用智能(AGI)的首席科學(xué)家,Prasad引入了一直從事Alexa AI研究的研究人員和亞馬遜科學(xué)團(tuán)隊來研究訓(xùn)練模型,用專門的資源將整個公司的AI工作整合在一起。

截至目前,亞馬遜已經(jīng)訓(xùn)練出了泰坦(Titan)等規(guī)模較小的模型。該公司還與Anthropic和AI21 Labs等人工智能模型初創(chuàng)公司達(dá)成了合作,向亞馬遜網(wǎng)絡(luò)服務(wù)(AWS)用戶提供這些模型。

熟悉內(nèi)情的人士說,亞馬遜認(rèn)為,擁有自主開發(fā)的人工智能模型可以使其在AWS上的產(chǎn)品更具吸引力,因為企業(yè)客戶希望在AWS上獲得性能最佳的模型。這些消息人士還補(bǔ)充說,目前亞馬遜還沒有制定發(fā)布新模型的具體時間表。

LLM是人工智能工具的基礎(chǔ)技術(shù),這些工具可從海量數(shù)據(jù)集中學(xué)習(xí),生成類似人類的反應(yīng)。

考慮到所需的計算能力,訓(xùn)練更大的人工智能模型成本更高。在4月份的財報電話會議上,亞馬遜高管表示,公司將增加對LLM和生成式人工智能的投資,同時削減零售業(yè)務(wù)的交付和運(yùn)輸規(guī)模。

立即登錄,閱讀全文
原文鏈接:點(diǎn)擊前往 >
文章來源:新浪科技
版權(quán)說明:本文內(nèi)容來自于新浪科技,本站不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。文章內(nèi)容系作者個人觀點(diǎn),不代表快出海對觀點(diǎn)贊同或支持。如有侵權(quán),請聯(lián)系管理員(zzx@kchuhai.com)刪除!
優(yōu)質(zhì)服務(wù)商推薦
更多
個人VIP