Google強(qiáng)化其云計算數(shù)據(jù)倉庫BigQuery的機(jī)器學(xué)習(xí)功能,推出新BigQuery機(jī)器學(xué)習(xí)推理引擎,讓用戶可以直接在BigQuery導(dǎo)入外部訓(xùn)練的模型,借由縮短模型與資料之間的距離,加速機(jī)器學(xué)習(xí)運(yùn)算。此外,用戶也能夠?qū)①Y料指向遠(yuǎn)程托管在Vertex AI的模型,以更靈活地方式執(zhí)行模型推理任務(wù)。
Google讓用戶無縫地在將資料預(yù)測分析集成至數(shù)據(jù)倉庫中,消除了資料移動帶來的成本和風(fēng)險,用戶還能使用熟悉的SQL語法來操作各種機(jī)器學(xué)習(xí)功能。而BigQuery的無服務(wù)器的特性,使得用戶不需要在執(zhí)行機(jī)器學(xué)習(xí)預(yù)測時自己配置基礎(chǔ)設(shè)施。
過去,用戶在BigQuery中導(dǎo)入機(jī)器學(xué)習(xí)模型的功能僅限TensorFlow模型。但Google現(xiàn)已擴(kuò)展支持的模型格式,添加加TensorFlow Lite、XGBoost和ONNX。如此一來,用戶便能夠?qū)yTorch和scikit-learn等常用框架轉(zhuǎn)換成ONNX,并將其導(dǎo)入到BigQuery中?,F(xiàn)在用戶可以在BigQuery使用在其他地方訓(xùn)練的模型,而不需要移動資料,BigQuery的分布式推理引擎能夠批次執(zhí)行推理工作,以提高推理執(zhí)行性能。
對于一些需要特殊基礎(chǔ)設(shè)施,以處理低延遲請求和大量參數(shù)的模型,用戶可以選擇將模型托管在機(jī)器學(xué)習(xí)平臺Vertex AI端點(diǎn),以獲得GPU運(yùn)算加速,Vertex AI也提供預(yù)構(gòu)建容器、自定義容器等服務(wù)。用戶現(xiàn)在可以選擇直接從BigQuery內(nèi)部,遠(yuǎn)程使用這些位于Vertex AI的模型進(jìn)行推理。BigQuery會將資料送向遠(yuǎn)程Vertex AI進(jìn)行推理,待推理完畢后的結(jié)果再送回BigQuery。
BigQuery機(jī)器學(xué)習(xí)遠(yuǎn)程模型推理,也支持圖像等非結(jié)構(gòu)化資料,用戶可以使用Vertex AI上的圖像、文本理解和翻譯預(yù)訓(xùn)練模型進(jìn)行推理。在BigQuery機(jī)器學(xué)習(xí)推理引擎中,這些模型可以使用特殊的預(yù)測函數(shù),將文本和圖像當(dāng)作輸入,并結(jié)果以JSON資料類型輸出。