AWS lanserar nya AI-drivna EC2-instanser



Amazons cloud computing-division, Amazon Web Services (AWS), har lanserat en ny klass av Elastic Compute Cloud (EC2)-instanser designade exklusivt för träning av maskininlärningsmodeller (ML). Kända som DL1, de nya EC2-instanserna drivs av Gaudi-acceleratorer från Intel-ägda Habana Labs, och erbjuder enligt AWS upp till 40 % bättre prisprestanda för ML-modellutbildning jämfört med befintliga EC2-instanser som drivs av GPU. "Tillägget av DL1-instanser med Gaudi-acceleratorer ger det mest kostnadseffektiva alternativet till GPU-baserade instanser i molnet hittills. Dess optimala kombination av pris och prestanda gör det möjligt för kunder att sänka utbildningskostnaderna, träna fler modeller och förnya sig snabbare, säger David Brown, Vice President, Amazon EC2, AWS.

Demokratisera AI

AWS föreslår att de nya DL1-instanserna lämpar sig för populära ML-användningsfall, inklusive naturlig språkbehandling (NLP), objektdetektering och klassificering, bedrägeriupptäckt, personaliserings- och rekommendationsmotorer, intelligenta dokument, affärsprognos, etc. Kunder kan använda DL1-instanser med upp till åtta Gaudi-acceleratorer, 256 GB högbandbreddsminne, 768 GB systemminne, andra generationens Amazon Xeon anpassade skalbara processorer (Cascade Lake), 400 Gbps genomströmningsnätverk och upp till 4TB lokalt NVMe lagring. För att hjälpa kunder att komma igång med nya instanser erbjuder AWS Havana SynapseAI SDK, som är integrerat med populära ML-ramverk, inklusive TensorFlow och PyTorch. AWS förklarar att detta kommer att hjälpa kunder att migrera sina befintliga ML-modeller från CPU- eller GPU-baserade instanser till DL1-instanser, med minimala kodändringar. Dessutom kan utvecklare och datavetare börja använda de olika referensmodellerna optimerade för Gaudí-acceleratorer i Habana GitHub-förvaret. DL1-instanser är tillgängliga på begäran genom en låg kostnad, betala-per-användning-användningsmodell utan förskottsåtagande.