谷歌宣布其人工智能平臺的一個關鍵組成部分——人工智能預測服務已正式全面啟動。該服務支持托管在主流的機器學習框架,包括TensorFlow、XGBoost和Scikit-Learn中。
AI Prediction服務充當機器學習管道的最后階段。它在云中托管經(jīng)過訓練的機器學習模型,以推斷新數(shù)據(jù)的目標值。部署在AI預測服務中的經(jīng)過訓練的模型作為REST端點公開,可以從任何支持HTTP的標準客戶端調用這些端點。
AI平臺預測服務基于Google Kubernetes Engine(GKE)后端,旨在通過新的硬件選項(如Google計算引擎機器類型和NVIDIA GPU)提高可靠性和靈活性。
雖然該服務基于googlekubernetes引擎,但AI預測服務隱藏了集群的供應、管理和擴展的復雜性。數(shù)據(jù)科學家和工程師可以專注于業(yè)務問題,而不是管理基礎設施。
在一般可用性下,AI預測服務支持高內存和高cpu機器類型上的XGBoost和Scikit學習模型。在后臺,服務根據(jù)流量和請求自動擴展和收縮基礎設施。
該服務與Google云控制臺和Stackdriver緊密集成,以跟蹤和可視化資源指標。與模型的GPU、CPU、RAM和網(wǎng)絡利用率相關的性能指標可以深入了解性能特征。
客戶可以選擇通過AI Prediction服務在特定區(qū)域部署機器學習模型。Google在三個區(qū)域(us-central1、euro-west4和asia-east1)中引入了新的端點,并通過區(qū)域隔離來提高可靠性。部署在區(qū)域端點上的模型位于指定區(qū)域內,為客戶提供數(shù)據(jù)局部性和所有權。
通過增加對VPC控件的支持,客戶可以定義安全范圍并部署僅可訪問該范圍內或另一個橋接范圍內的資源和服務的在線預測模型。由于預測服務端點是VPC專用的,因此數(shù)據(jù)保留在專用網(wǎng)絡內,而不必遍歷公共互聯(lián)網(wǎng)。
通過AI Prediction服務部署和公開的模型支持在線和批處理推理。在線預測經(jīng)過優(yōu)化,可最大程度地減少服務預測的延遲,而批處理預測,則可以優(yōu)化處理作業(yè)中的大量實例。與立即發(fā)送結果的在線預測不同,批處理預測將推理輸出寫入存儲在Google Cloud Storage存儲桶中的文件中。
谷歌一直在大力投資人工智能平臺即服務(PaaS)產品。它整合和擴充了包括cloudml引擎在內的各種服務。通過與GKE和Kubeflow的緊密集成,該服務已經(jīng)發(fā)展成為一個支持數(shù)據(jù)準備、轉換、培訓、模型管理、部署和推理的端到端平臺。