Google Cloud vill göra det enkelt att köra massiva ML-arbetsbelastningar

Google Cloud vill göra det enkelt att köra massiva ML-arbetsbelastningar

Google Cloud har meddelat den allmänna tillgängligheten för sina virtuella TPU-maskiner.

Tensor Processing Units (TPU) är applikationsspecifika integrerade kretsar (ASIC) utvecklade av Google som används för att påskynda maskininlärningsarbetsbelastningar.

Cloud TPU låter dig köra dina arbetsbelastningar för maskininlärning på molnvärdjättens TPU-accelerationshårdvara med hjälp av TensorFlows maskininlärningsplattform med öppen källkod.

Vad kan virtuella TPU-maskiner göra för användare?

Google säger att dess användargemenskap har anammat virtuella TPU:er eftersom de ger en bättre felsökningsupplevelse och även tillåter vissa träningskonfigurationer, inklusive distribuerad förstärkningsinlärning, som den säger inte var genomförbar med UPT-nodarkitekturen. nätverk) som finns från Google.

Cloud TPU:er är optimerade för storskaliga klassificerings- och rekommendationsarbetsbelastningar enligt Google, med hänvisning till hur Snap var en tidig användare av kapaciteten.

Dessutom, med GA-utgåvan av virtuella TPU-maskiner, introducerar Google ett nytt TPU-integrerings-API, som det hävdar kan påskynda ML-baserad klassificering och rekommendationsarbetsbelastningar.

Google lyfte fram hur många moderna företag förlitar sig på rankning och rekommendationer, som ljud- och videorekommendationer, produktrekommendationer och annonsrankning.

Teknikjätten sa att TPU:er kan hjälpa företag att implementera ett djupt neuralt nätverksbaserat tillvägagångssätt för att hantera ovanstående användningsfall, som den säger kan vara kostsamt och resurskrävande.

Google hävdar också att dess virtuella TPU-maskiner erbjuder flera ytterligare funktioner över den befintliga TPU-nodarkitekturen på grund av dess lokala runtime-konfiguration, eftersom indatapipelinen kan köras direkt på TPU-värdarna, vilket gör det möjligt för organisationer att spara IT-resurser.

TPU VM GA Release stöder även andra stora ML-ramverk som PyTorch och JAX.

Intresserad av att implementera en virtuell TPU? Du kan följa en av Googles snabbstartsguider eller handledningar.