Den smutsiga hemligheten med högpresterande datoranvändning

Den smutsiga hemligheten med högpresterande datoranvändning

Under decennierna sedan Seymour Cray utvecklade vad som anses vara världens första superdator, CDC 6600 (öppnas i en ny flik), har en kapprustning utkämpats inom högpresterande datorer (HPC). Målet: förbättra prestanda, med alla medel, till varje pris.

Driven av framsteg inom datorer, lagring, nätverk och mjukvara, har prestanda hos ledande system ökat biljoner gånger sedan introduktionen av CDC 6600 1964, från miljontals flyttalsoperationer per sekund (megaFLOPS) till kvintiljoner (exaFLOPS).

Den nuvarande innehavaren av kronan, en kolossal amerikansk superdator som heter Frontier, är kapabel till 1102 exaFLOPS enligt High Performance Linpack (HPL) benchmark. Men ännu mer kraftfulla maskiner tros vara i drift på andra håll, bakom stängda dörrar.

Ankomsten av så kallade exascale superdatorer förväntas gynna praktiskt taget alla branscher – från vetenskap till cybersäkerhet, från sjukvård till finans – och bana väg för kraftfulla nya modeller av AI som annars skulle ha tagit år att utveckla.

CDC 6600

CDC 6600, allmänt anses vara världens första superdator. (Bildkredit: Computer History Museum)

Men att öka hastigheter i denna storleksordning har en kostnad: strömförbrukning. Vid full fart förbrukar Frontier upp till 40 MW (öppnas i en ny flik) ström, ungefär samma som 40 miljoner stationära datorer.

Supercomputing har alltid handlat om att tänja på gränserna för vad som är möjligt. Men eftersom behovet av att minimera utsläppen blir allt mer uppenbart och energipriserna fortsätter att stiga, kommer HPC-industrin att behöva omvärdera om dess ursprungliga vägledande princip fortfarande är värd att följa.

prestanda vs. Effektivitet

En organisation som verkar i spetsen för detta problem är University of Cambridge, som i samarbete med Dell Technologies har utvecklat flera toppmoderna energieffektiva superdatorer.

Wilkes3 (öppnas i ny flik), till exempel, hamnar bara på 100:e plats i övergripande prestandatabeller (öppnar i ny flik), men rankas 500:a i GreenXNUMX (öppnar i ny flik), en klassificering av HPC-system baserat på prestanda per watt av energi som förbrukas.

I ett samtal med TechRadar Pro förklarade Dr. Paul Calleja, Director of Research Computing Services vid University of Cambridge, att institutionen är mycket mer intresserad av att bygga högproduktiva och effektiva maskiner än med extremt kraftfulla maskiner.

”Vi är egentligen inte intresserade av stora system, eftersom det är väldigt specifika punktlösningar. Men teknologier som används inomhus har en mycket bredare tillämpning och kommer att tillåta system att köra en storleksordning långsammare mycket billigare och energieffektivare, säger Dr. Calleja.

"Genom att göra det demokratiserar det tillgången till IT för många fler människor. Vi är intresserade av att använda teknik designad för dessa fantastiska gamla system för att skapa mycket mer hållbara superdatorer för en bredare publik.

University of Cambridge

Superdatorn Wilkes3 är kanske inte den snabbaste i världen, men den är bland de mest energieffektiva. (Bildkredit: University of Cambridge)

Under de kommande åren förutspår Dr. Calleja också en allt hårdare satsning på energieffektivitet i HPC-industrin och i datacentergemenskapen i allmänhet, där energiförbrukningen står för mer än 90 % av kostnaderna. , får vi veta.

De senaste energiprisförändringarna relaterade till kriget i Ukraina kommer också att ha gjort superdatorer avsevärt dyrare, särskilt i samband med exascale computing, vilket ytterligare illustrerar vikten av prestanda per watt.

I samband med Wilkes3 fann universitetet att det fanns ett antal optimeringar som hjälpte till att förbättra effektiviteten. Till exempel, genom att sänka klockhastigheten med vilken vissa komponenter kördes, beroende på arbetsbelastningen, kunde teamet uppnå minskningar av strömförbrukningen i storleksordningen 20-30 %.

"Inom en viss arkitektonisk familj har klockhastigheten ett linjärt samband med prestanda, men ett kvadratiskt samband med strömförbrukningen. Det här är mördaren”, förklarade Dr. Calleja.

"Att sänka klockhastigheten minskar strömförbrukningen i mycket snabbare takt än prestanda, men det förlänger också tiden det tar att slutföra ett jobb. Så det vi bör titta på är inte energiförbrukningen under en löprunda, utan faktiskt energin som förbrukas av arbetet. Det finns en perfekt plats.

Mjukvaran är kung

Utöver att finjustera hårdvarukonfigurationer för specifika arbetsbelastningar, finns det också ett antal optimeringar som måste göras på andra ställen, i samband med lagring och nätverk, och inom relaterade discipliner som kylning och rackdesign. .

Men på frågan om var han specifikt skulle vilja se resurser tilldelade i strävan att förbättra energieffektiviteten, förklarade Dr. Calleja att fokus borde ligga på mjukvara först och främst.

”Hårdvaran är inte problemet, det handlar om applikationernas effektivitet. Det här kommer att vara den största flaskhalsen för att gå vidare, säger han. "Dagens exascale-system är baserade på GPU-arkitekturer, och antalet applikationer som kan köras effektivt i skala på GPU-system är litet."

”För att verkligen dra nytta av dagens teknik måste vi fokusera på applikationsutveckling. Utvecklingslivscykeln sträcker sig över decennier; mjukvaran som används idag utvecklades för 20 eller 30 år sedan och det är svårt när man har kod som är så lång att den behöver göras om.

Problemet är dock att HPC-industrin inte har för vana att tänka mjukvara först. Mycket mer uppmärksamhet har historiskt ägnats hårdvara, eftersom, med Dr Callejas ord, "Det är lätt; du har precis köpt ett snabbare chip. Du behöver inte tänka smart."

"När vi hade Moores lag, med processorprestanda som fördubblades var artonde månad, behövde du inte göra något för att öka prestandan. Men den eran är över. Om vi ​​nu vill göra framsteg måste vi gå tillbaka och göra om programvara. »

CPU med kontakter uppåt vilande på PC:ns moderkort. chipet är markerat med ett blått ljus

När Moores lag börjar försvagas kan man inte längre lita på framsteg inom CPU-arkitekturen som en källa till prestandaförbättringar. (Bildkredit: Alexander_Safonov/Shutterstock)

Dr. Calleja reserverade en del beröm för Intel i detta avseende. Eftersom serverns hårdvaruutrymme blir mer varierat ur ett leverantörsperspektiv (på många sätt en positiv utveckling), kan applikationskompatibilitet bli ett problem, men Intel arbetar på en lösning.

"En skillnad som jag ser för Intel är att de investerar mycket i oneAPI-ekosystemet, för att utveckla kodportabilitet mellan kiseltyper. Det är dessa typer av verktygskedjor som vi behöver för att möjliggöra för morgondagens applikationer att dra nytta av framväxande kisel, säger han.

Separat efterlyste Dr Calleja ett större fokus på "vetenskaplig nödvändighet". Alltför ofta "går saker fel i översättningen", vilket skapar en obalans mellan hårdvaru- och mjukvaruarkitekturer och slutanvändarens faktiska behov.

Enligt honom skulle ett mer kraftfullt förhållningssätt till branschöverskridande samarbete skapa en "god cirkel" av användare, tjänsteleverantörer och leverantörer, vilket skulle ge både prestanda och effektivitetsfördelar.

En framtid i zetta-skala

Vanligtvis, när det symboliska landmärket för exaskalan faller, kommer uppmärksamheten nu att vändas mot nästa: zettaskalan.

"Zettascale är bara nästa flagga i marken", sa Dr. Calleja, "en totempåle som lyfter fram de teknologier som behövs för att nå nästa steg av datorutveckling som inte kan erhållas idag."

"De snabbaste systemen i världen är extremt dyra för vad du får ut av dem, i termer av vetenskaplig produktion. Men de är viktiga eftersom de visar det möjligas konst och för branschen framåt.

University of Cambridge

Pembroke College, University of Cambridge, hem till Open Zettascale Lab. (Bildkredit: University of Cambridge)

Huruvida system som kan uppnå zettaFLOPS prestanda, tusen gånger kraftfullare än den nuvarande grödan, kan utvecklas på ett sätt som ligger i linje med hållbarhetsmålen kommer att bero på branschens uppfinningsrikedom.

Det finns inget binärt samband mellan prestanda och effekteffektivitet, men det kommer att krävas en hel del skicklighet inom varje deldisciplin för att leverera den nödvändiga prestandaökningen inom ett lämpligt kraftomslag.

I teorin finns det ett gyllene snitt mellan prestanda och energiförbrukning, så samhällsnyttan som genereras av HPC kan anses vara värda kostnaden för koldioxidutsläpp.

Den exakta siffran kommer naturligtvis att förbli svårfångad i praktiken, men att driva idén är per definition ett steg i rätt riktning.